Store 2.0: Unterschied zwischen den Versionen

Aus Store2 Wiki
Zur Navigation springen Zur Suche springen
 
(43 dazwischenliegende Versionen von 6 Benutzern werden nicht angezeigt)
Zeile 50: Zeile 50:
4.) Mounten:
4.) Mounten:
  mount /dev/mapper/cr_md125 /data
  mount /dev/mapper/cr_md125 /data
 
Wichtig, speziell für data2 mit ext4 und ghost-inodes:
mount -o rw,errors=continue,noatime /dev/mapper/cr_md126 /data2
Schliessen wäre:
Schliessen wäre:


Zeile 129: Zeile 130:
Serial auslesen mit:
Serial auslesen mit:
  udevadm info --query=all --name=/dev/sdi | grep ID_SERIAL_SHORT  
  udevadm info --query=all --name=/dev/sdi | grep ID_SERIAL_SHORT  
Für /dev/disk/by-id
udevadm info --query=all --name=/dev/sdi1 | grep disk/by-id/ata


Serial Systemplatte 160GB:
Serial Systemplatte 160GB:
Zeile 134: Zeile 137:


== Serials der Datenplatten ==
== Serials der Datenplatten ==
 
[[Datei:2025-08-31 00-23-42-STORE2-HDD-Heatmap-DE.png|mini|2025-08-31 00-23-42-STORE2-HDD-Heatmap]]
  00  : 00000000000000 (1TB System (Arch), Samsung)
  00  : 00000000000000 (1TB System (Arch), Samsung) /dev/disk/by-id/ata-SAMSUNG_HD103UJ_00000000000000


----
----


geht
geht
  01  : 234BGY0GS (3TB Toshiba) data 014
  01  : 234BGY0GS (3TB Toshiba) data 014 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1
  02  : ZDHB5RY6 (3TB Ironwolf NAS) data 016
  02  : ZDHB5RY6 (3TB Ironwolf NAS) data 016 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1
  03  : ZGY7743F (3TB Ironwolf NAS) data 015
  03  : ZGY7743F (3TB Ironwolf NAS) data 015 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1
  04  : MJ1311YNG3Y4SA (3TB Toshiba) data 005
  04  : MJ1311YNG3Y4SA (3TB Toshiba) data 005 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1
  05  : MJ1311YNG3SYKA (3TB Toshiba) data 001
  05  : MJ1311YNG3SYKA (3TB Toshiba) data 001 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1


----
----


geht jetzt auch, Molex-Kontakt Problem behoben
geht jetzt auch, Molex-Kontakt Problem behoben
  06  : MJ1311YNG4J48A (3TB Toshiba) data2 113
  06  : MJ1311YNG4J48A (3TB Toshiba) data2 113 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1
  07  : WW60B6RZ (4TB Seagate Ironwolf Slim) data2 116
  07  : WW60B6RZ (4TB Seagate Ironwolf Slim) data2 116 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1
  08  : WD-WCC4N3CHNN7K (3TB WD Red) data2 114
  08  : WD-WCC4N3CHNN7K (3TB WD Red) data2 114 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1
  09  : MJ1311YNG3UUPA (3TB Toshiba) data 012
  09  : MJ1311YNG3UUPA (3TB Toshiba) data 012 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1
  10  : MJ0351YNGA02YA (3TB Toshiba) data2 102
  10  : MJ0351YNGA02YA (3TB Toshiba) data2 102 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1


----
----
geht
geht
  11  : MJ1311YNG3SAMA (3TB) data 013
  11  : MJ1311YNG3SAMA (3TB) data 013 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 -> potentiell gefährded, hat 6 Pending Sectors, 13,5 Jahre alt -> evtl. proaktiv tauschen
  12  : WW60CK42 (4TB Seagate IronWolf Slim) data2 121
  12  : WW60CK42 (4TB Seagate IronWolf Slim) data2 121 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1
  13  : MJ1311YNG09EDA (3TB) data2 104
  13  : MJ1311YNG09EDA (3TB) data2 104 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1
  14  : WD-WCC7K7VCRJZT (3TB WD Red) data 002
  14  : WD-WCC7K7VCRJZT (3TB WD Red) data 002 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1
  15  : MCE9215Q0AUYTW (3TB Toshiba) data2 100
  15  : MCE9215Q0AUYTW (3TB Toshiba) data2 100 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1


----
----
geht
geht
  16  : ZDHBBDY5 (4TB Seagate Ironwolf) data2 120
  16  : ZDHBBDY5 (4TB Seagate Ironwolf) data2 120 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1
  17  :  
  17  :  
  18  : ZGY7821M (3TB Seagate IronWolf) data2 119
  18  : ZGY7821M (3TB Seagate IronWolf) data2 119 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1
  19  :  
  19  :  
  20  : MJ1311YNG3RM5A (3TB Toshiba) data 008
  20  : MJ1311YNG3RM5A (3TB Toshiba) data 008 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1


----
----
geht
geht
  21  : WD-WCC7K5THL257 (3TB WD Red) data2 103
  21  : WD-WCC7K5THL257 (3TB WD Red) data2 103 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1
  22  : ZDHA9E6A (3TB Seagate Ironwolf) data 018
  22  : ZDHA9E6A (3TB Seagate Ironwolf) data 018 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1
  23  : WD-WMC4N0L7H2HV (3TB WD) data2 107
  23  : WD-WMC4N0L7H2HV (3TB WD) data2 107 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1
  24  : WD-WCC7K2JL6DSL (3TB WD Red) data 010
  24  : WD-WCC7K2JL6DSL (3TB WD Red) data 010 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1
  25  : WD-WCC4N5DZ1CEU (3TB WD Red) data2 115
  25  : WD-WCC4N5DZ1CEU (3TB WD Red) data2 115 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1


----
----
geht
geht
  26  : WD-WMC4N0L359DL (3TB WD) data2 106
  26  : WD-WMC4N0L359DL (3TB WD) data2 106 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1
  27  : WW6078X8 (4TB Seagate IronWolf Slim) data 019
  27  : WW6078X8 (4TB Seagate IronWolf Slim) data 019 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1
  28  : WD-WCC4N1ZY6VVY (3TB WD Red) data2 110
  28  : WD-WCC4N1ZY6VVY (3TB WD Red) data2 110 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1
  29  : WD-WCC4N6EVNFZ5 (3TB WD Red) data2 109  
  29  : WD-WCC4N6EVNFZ5 (3TB WD Red) data2 109 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1
  30  : WD-WCC4N2DJ9XL8 (3TB WD Red) data 003
  30  : WD-WCC4N2DJ9XL8 (3TB WD Red) data 003 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1


----
----


geht
geht
  31  : MJ1311YNG3NT5A (3TB Toshiba) data 009
  31  : MJ1311YNG3NT5A (3TB Toshiba) data 009 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1
  32  : MCM9215Q0B9LSY (3TB Toshiba) data2 101
  32  : MCM9215Q0B9LSY (3TB Toshiba) data2 101 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1
  33  : ZDHAWE09 (3TB Seagate Ironwolf) data2 105
  33  : ZDHAWE09 (3TB Seagate Ironwolf) data2 105 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1
  34  : MJ1311YNG38VGA (3TB Toshiba) data 004
  34  : MJ1311YNG38VGA (3TB Toshiba) data 004 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1
  35  : MJ1311YNG3WZVA (3TB Toshiba) data 000
  35  : MJ1311YNG3WZVA (3TB Toshiba) data 000 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1


----
----


geht
geht
  36  : WD-WCC7K0SNC8T6 (3TB WD Red) data2 111
  36  : WD-WCC7K0SNC8T6 (3TB WD Red) data2 111 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1
  37  : ZDH906SD (4TB Seagate Ironwolf) data2 118
  37  : ZDH906SD (4TB Seagate Ironwolf) data2 118 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1
  38  : WD-WCC4N0RC60LS (3TB WD Red) data 006
  38  : WD-WCC4N0RC60LS (3TB WD Red) data 006 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1
  39  : WD-WCC4N2JPEN1D (3TB WD Red) data 017
  39  : WD-WCC4N2JPEN1D (3TB WD Red) data 017 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1
  40  : WD-WCC4N4NHKFN0 (3TB WD Red) data2 117
  40  : WD-WCC4N4NHKFN0 (3TB WD Red) data2 117 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1


----
----
geht
geht
  41  : WD-WCC4N7CXVHLU (3TB WD Red) data2 112
  41  : WD-WCC4N7CXVHLU (3TB WD Red) data2 112 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1
  42  : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122
  42  : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
  43  : WD-WCC070299387 (3TB WD) data2 108
  43  : ZW633NRC (4TB IronWolf Slim) data2 108 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1
  44  : MJ1311YNG3NZ3A (3TB Toshiba) data 011
  44  : MJ1311YNG3NZ3A (3TB Toshiba) data 011 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1
  45  : MJ1311YNG25Z6A (3TB Toshiba) data 007
  45  : ZW60FC09 (4TB Seagate IronWolf Slim) data 007 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1


TOTAL: 44 (20 + 23 + 0 SPARE (extern aber vorbereitet und getestet) + 1 Systemplatte) von 46 möglichen
TOTAL: 44 (20 + 23 + 0 SPARE (extern aber vorbereitet und getestet) + 1 Systemplatte) von 46 möglichen
== Mapping der Festplatte mit fixer Zuordnung statt sdx ==
https://superuser.com/questions/617192/mapping-ata-device-number-to-logical-device-name


= Raid Baubefehl =
= Raid Baubefehl =
Zeile 1.859: Zeile 1.866:
Theoretische Idee für vor dem create: mit revert-reshape und --backup-file ('''NICHT gemacht''', da das mal zu Datenverlust geführt hat!)
Theoretische Idee für vor dem create: mit revert-reshape und --backup-file ('''NICHT gemacht''', da das mal zu Datenverlust geführt hat!)
  mdadm --assemble --update=revert-reshape /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 --backup-file=/home/gagi/mda127backup2
  mdadm --assemble --update=revert-reshape /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 --backup-file=/home/gagi/mda127backup2
= 86. Raid Recreate DATA und DATA2 2023-11-10, 14TB HDD bb-Test über Nacht =
44 Platten insgesamt
'''DATA2 mit normalem mdadm'''
u an hv 4 z ad ac w 8 al ag oc 12 aj te ae 16 a am fy 20 lj ap
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdu1 /dev/sdan1 /dev/sdh1 /dev/sdv1 /dev/sdz1 /dev/sdad1 /dev/sdac1 /dev/sdw1 /dev/sdal1 /dev/sdag1 /dev/sdo1 /dev/sdc1 /dev/sdaj1 /dev/sdt1 /dev/sde1 /dev/sdae1 /dev/sda1 /dev/sdam1 /dev/sdf1 /dev/sdy1 /dev/sdl1 /dev/sdj1 /dev/sdap1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
'''DATA mit normalem mdadm und offset'''
ai pnd 4 ah sk aq 8 b aa x ao 12 girq 16 m ak ab af 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdai1 /dev/sdp1 /dev/sdn1 /dev/sdd1 /dev/sdah1 /dev/sds1 /dev/sdk1 /dev/sdaq1 /dev/sdb1 /dev/sdaa1 /dev/sdx1 /dev/sdao1 /dev/sdg1 /dev/sdi1 /dev/sdr1 /dev/sdq1 /dev/sdm1 /dev/sdak1 /dev/sdab1  /dev/sdaf1
= 87. Raid Recreate DATA und DATA2 2024-04-30, Copy-Job von Myth, vielen Platten fielen raus=
44 Platten insgesamt
'''DATA2 mit normalem mdadm'''
m af es 4 o ao xu 8 an ac y ah 12 ak lb w 16 n ad ae v 20 ci am
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdm1 /dev/sdaf1 /dev/sde1 /dev/sds1 /dev/sdo1 /dev/sdao1 /dev/sdx1 /dev/sdu1 /dev/sdan1 /dev/sdac1 /dev/sdy1 /dev/sdah1 /dev/sdak1 /dev/sdl1 /dev/sdb1 /dev/sdw1 /dev/sdn1 /dev/sdad1 /dev/sdae1 /dev/sdv1 /dev/sdc1 /dev/sdi1 /dev/sdam1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
'''DATA mit normalem mdadm und offset'''
ar jkz 4 aj h aa al 8 f ag r ap 12 dgpa 16 t ai q ab 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdar1 /dev/sdj1 /dev/sdk1 /dev/sdz1 /dev/sdaj1 /dev/sdh1 /dev/sdaa1 /dev/sdal1 /dev/sdf1 /dev/sdag1 /dev/sdr1 /dev/sdap1 /dev/sdd1 /dev/sdg1 /dev/sdp1 /dev/sda1 /dev/sdt1 /dev/sdai1 /dev/sdq1 /dev/sdab1
= 88. Raid Recreate DATA und DATA2 2024-05-08, einfach so, viele Platten fallen raus=
44 Platten insgesamt
'''DATA2 mit normalem mdadm'''
t ae ku 4 aa an qc 8 al z y am 12 ai lof 16 n ac vm 20 as aj
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdt1 /dev/sdae1 /dev/sdk1 /dev/sdu1 /dev/sdaa1 /dev/sdan1 /dev/sdq1 /dev/sdc1 /dev/sdal1 /dev/sdz1 /dev/sdy1 /dev/sdam1 /dev/sdai1 /dev/sdl1 /dev/sdo1 /dev/sdf1 /dev/sdn1 /dev/sdac1 /dev/sdv1 /dev/sdm1 /dev/sda1 /dev/sds1 /dev/sdaj1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
'''DATA mit normalem mdadm und offset'''
ak j ab ah 4 ag h af ap 8 g ad e ao 12 rpdb 16 i aq w x 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdj1 /dev/sdab1 /dev/sdah1 /dev/sdag1 /dev/sdh1 /dev/sdaf1 /dev/sdap1 /dev/sdg1 /dev/sdad1 /dev/sde1 /dev/sdao1 /dev/sdr1 /dev/sdp1 /dev/sdd1 /dev/sdb1 /dev/sdi1 /dev/sdaq1 /dev/sdw1 /dev/sdx1
= 89. Raid Recreate DATA und DATA2 2024-05-25, einfach so, viele Platten fallen raus=
44 Platten insgesamt
'''DATA2 mit normalem mdadm'''
b ah nc 4 q ai vw 8 ao aa x ab 12 al mgt 16 a an ag e 20 hp am
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdb1 /dev/sdah1 /dev/sdn1 /dev/sdc1 /dev/sdq1 /dev/sdai1 /dev/sdv1 /dev/sdw1 /dev/sdao1 /dev/sdaa1 /dev/sdx1 /dev/sdab1 /dev/sdal1 /dev/sdm1 /dev/sdg1 /dev/sdt1 /dev/sda1 /dev/sdan1 /dev/sdag1 /dev/sde1 /dev/sdh1 /dev/sdp1 /dev/sdam1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
'''DATA mit normalem mdadm und offset'''
ak ldz 4 aj o ac aq 8 i ae y ap 12 frjk 16 s ad u af 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdl1 /dev/sdd1 /dev/sdz1 /dev/sdaj1 /dev/sdo1 /dev/sdac1 /dev/sdaq1 /dev/sdi1 /dev/sdae1 /dev/sdy1 /dev/sdap1 /dev/sdf1 /dev/sdr1 /dev/sdj1 /dev/sdk1 /dev/sds1 /dev/sdad1 /dev/sdu1 /dev/sdaf1
= 90. Raid Recreate DATA und DATA2 2024-10-09, einfach so, viele Platten fallen raus=
44 Platten insgesamt
beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.
'''DATA2 mit normalem mdadm'''
r ah dq 4 o ai xu 8 ap aa z ac 12 al icw 16 k ag ad e 20 ap ao
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdr1 /dev/sdah1 /dev/sdd1 /dev/sdq1 /dev/sdo1 /dev/sdai1 /dev/sdx1 /dev/sdu1 /dev/sdap1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdi1 /dev/sdc1 /dev/sdw1 /dev/sdk1 /dev/sdag1 /dev/sdad1 /dev/sde1 /dev/sda1 /dev/sdp1 /dev/sdao1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
'''DATA mit normalem mdadm und offset'''
ak gs ab 4 aj h ae ar 8 j aq v am 12 bmlf 16 n af t y 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdg1 /dev/sds1 /dev/sdab1 /dev/sdaj1 /dev/sdh1 /dev/sdae1 /dev/sdar1 /dev/sdj1 /dev/sdaq1 /dev/sdv1 /dev/sdam1 /dev/sdb1 /dev/sdm1 /dev/sdl1 /dev/sdf1 /dev/sdn1 /dev/sdaf1 /dev/sdt1 /dev/sdy1
= 91. Raid Recreate DATA und DATA2 2024-10-09-II, einfach so, viele Platten fallen raus, Wechsel auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1 =
44 Platten insgesamt
beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.
'''Umstellung auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1'''
udevadm info --query=all --name=/dev/sdi | grep disk/by-id/ata
Eintragungen in disknum.txt und im Wiki ergänzt
'''DATA2 mit normalem mdadm'''
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
'''DATA mit normalem mdadm und offset'''
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG25Z6A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1
= 92. Raid Recreate DATA und DATA2 2025-07-16, einfach so, viele Platten fallen raus, Wechsel auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1 =
44 Platten insgesamt
beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.
'''Umstellung auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1'''
udevadm info --query=all --name=/dev/sdi | grep disk/by-id/ata
Eintragungen in disknum.txt und im Wiki ergänzt
'''DATA2 mit normalem mdadm -> passt so'''
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
'''DATA mit normalem mdadm und offset -> eine Platte anders als bei 91., da diese dazwischen getauscht wurde (8. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !'''
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1
= 93. 2025-08-31 Raid Baubefehl noch data2 rebuild wegen HDD-Tausch mit disk/by-id =
[[Datei:2025-08-31 20-05-23-STORE2-HDD-Heatmap Problem-Platten dmesg.png|mini|2025-08-31 20-05-23-STORE2-HDD-Heatmap Problem-Platten dmesg]]
44 Platten insgesamt
Eintragungen in disknum.txt und im Wiki ergänzt
'''DATA2 mit normalem mdadm -> passt so'''
  mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
'''DATA mit normalem mdadm und offset -> eine Platte anders als bei 92., da diese dazwischen getauscht wurde (43. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !'''
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1


= Spare-Group einrichten =
= Spare-Group einrichten =
Zeile 1.943: Zeile 2.106:


  badblocks -vs -o sdy-badblock-test /dev/sdy
  badblocks -vs -o sdy-badblock-test /dev/sdy
bzw. bei sehr großen Platten (>8TB) noch mit dieser Option
badblocks -vs -b4096 -o 14badblock-test /dev/sdau
verbose, show progress, output-file (log)
verbose, show progress, output-file (log)
badblocks sucht nur nach bad blocks, zerstört aber keine Daten.
badblocks sucht nur nach bad blocks, zerstört aber keine Daten.

Aktuelle Version vom 17. September 2025, 18:56 Uhr

STABILITÄT Store 2.0

Vermutung: Die drei SATA-Erweiterungskarten crashen gelegentlich das komplette System.

Karten:

http://www.sybausa.com/productInfo.php?iid=537 

Syba SY-PEX40008 4-port SATA II PCI-e Software RAID Controller Card--Bundle with Low Profile Bracket, SIL3124 Chipset Sind die identischen Karten, die immer noch von Backblaze verbaut werden (Pod 2.0 UND Pod 3.0!) Hängen an drei PCI-E 1x (kleiner Port)

RAID bliebt heile (zum Glück!), da die Karten dann komplett die Zugriff sperren.

Arch-Log files haben gar keine Einträge zu den Crashs!!!

Remote-Log über Syslogd (über Myth) zeigt als letzten Eintrag:

 mdadm: sending ioctl 1261 to a partition (buggy Eintrag, aber unkritisch)
 sata_sil24: IRQ status == 0xffffffff, PCI fault or device removal

sata-sil24:

https://ata.wiki.kernel.org/index.php/Sata_sil24 

Spurious interrupts are expected on SiI3124 suffering from IRQ loss erratum on PCI-X


PATCH?

http://old.nabble.com/-PATCH-06-13--sata_sil24%3A-implement-loss-of-completion-interrupt-on-PCI-X-errta-fix-p3799674.html

Thread über Zugang mit SIL3124 Chip

http://www.linuxquestions.org/questions/linux-kernel-70/how-to-access-sata-drives-attached-to-sii3124-719408/

Test?

http://marc.info/?l=linux-ide&m=127228317404771&w=2

Raid nach Booten öffnen und mount

Um Auto-Assembly beim Booten zu verhindern muss die Config-Datei /etc/mdadm.conf leer (oder zumindest komplett auskommentiert sein) und "MDADM_SCAN=no" in /etc/sysconfig/mdadm

1.) Checken ob alle Platten da sind:

/usr/local/bin/ds.sh 

Müssen im Moment 17 Platten sein. Basis ist die Datei disknum.txt unter /root/bin

2.) Raids suchen und assemblen (kein Autostart):

mdadm --assemble --scan 

3.) Cryptsetup:

cryptsetup luksOpen /dev/md125 cr_md125 

4.) Mounten:

mount /dev/mapper/cr_md125 /data

Wichtig, speziell für data2 mit ext4 und ghost-inodes:

mount -o rw,errors=continue,noatime /dev/mapper/cr_md126 /data2

Schliessen wäre:

cryptsetup luksClose cr_md125

JD2

java -Xmx512m -jar /home/gagi/jd2/JDownloader.jar

bzw in /home/gagi/jd2/

./JDownloader2

VNC

dergagi.selfhost.bz:5901

NextCloud

Anleitung überhaupt

https://www.howtoforge.de/anleitung/wie-man-nextcloud-unter-debian-10-installiert/ 

DuckDNS und Letsencrypt

https://www.edvpfau.de/wildcard-zertifikat-mit-duckdns-erstellen/ 

1. Wildcard Zertifikat holen:

certbot --server https://acme-v02.api.letsencrypt.org/directory -d *.dergagi9.duckdns.org --manual --preferred-challenges dns-01 certonly 

Einmal "Y" drücken und dann offen lassen für später

2. Secret setzen, dabei Token von DuckDNS-Account verwenden, das hintere ist aus der ersten Abfrage einzusetzen

curl "https://www.duckdns.org/update?domains=dergagi9.duckdns.org&token=51570840-8ed4-403a-8090-30f4dacc3b2f&txt=rL-ALVVDfHal08GUWz1T0PAevUOcWT-HgvJ7eMd0J6o" 

3. Prüfen, ob TXT record gesetzt ist:

https://www.digwebinterface.com/?hostnames=dergagi9.duckdns.org&type=TXT&ns=resolver&useresolver=8.8.4.4&nameservers= 

4. Certbot Validierung fortsetzen

dann erst im ersten Fenster "Return" drücken

NEU 2022-02: Automatisiertes Skript zur Zertifikatsaktualisierung, wie hier beschrieben

https://www.edvpfau.de/automatische-erneuerung-der-letsencrypt-wildcard-zertifikate-mit-duckdns/ 


______________________________________________________________________

Dateien "locked", können also z.B. nicht gelöscht werden

put Nextcloud in maintenance mode:

gedit /var/www/html/nextcloud/config/config.php 

and change this line: 'maintenance' => true,

Empty table oc_file_locks: Use tool mysql run (the default table prefix is oc_, this prefix can be different or even empty):

mysql -u nextclouduser -p nextclouddb 

password Dann ist man in MaridDb eingeloggt; darin dann:

DELETE FROM oc_file_locks WHERE 1;
\q

disable maintenance mode (undo first step)

gedit /var/www/html/nextcloud/config/config.php 

and change this line: 'maintenance' => false,

Festplatten-Layout

3000GB Hitachi Deskstar 5K3000 HDS5C3030ALA630 CoolSpin 32MB 3.5" (8.9cm) SATA 6Gb/s

3000GB Western Digital WD30EZRX 3TB interne Festplatte (8,9 cm (3,5 Zoll), 5400 rpm, 2ms, 64MB Cache, SATA III

Problem mit WD-Platten und LCC

http://idle3-tools.sourceforge.net/ 
http://koitsu.wordpress.com/2012/05/30/wd30ezrx-and-aggressive-head-parking/ 

Get idle3 timer raw value

idle3ctl -g /dev/sdh 

Disable idle3 timer:

idle3ctl -d /dev/sdh 

Serial auslesen mit:

udevadm info --query=all --name=/dev/sdi | grep ID_SERIAL_SHORT 

Für /dev/disk/by-id

udevadm info --query=all --name=/dev/sdi1 | grep disk/by-id/ata 

Serial Systemplatte 160GB:

JC0150HT0J7TPC

Serials der Datenplatten

2025-08-31 00-23-42-STORE2-HDD-Heatmap
00  : 00000000000000 (1TB System (Arch), Samsung) /dev/disk/by-id/ata-SAMSUNG_HD103UJ_00000000000000

geht

01  : 234BGY0GS (3TB Toshiba) data 014 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1
02  : ZDHB5RY6 (3TB Ironwolf NAS) data 016 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1
03  : ZGY7743F (3TB Ironwolf NAS) data 015 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1
04  : MJ1311YNG3Y4SA (3TB Toshiba) data 005 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1
05  : MJ1311YNG3SYKA (3TB Toshiba) data 001 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1

geht jetzt auch, Molex-Kontakt Problem behoben

06  : MJ1311YNG4J48A (3TB Toshiba) data2 113 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1
07  : WW60B6RZ (4TB Seagate Ironwolf Slim) data2 116 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1
08  : WD-WCC4N3CHNN7K (3TB WD Red) data2 114 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1
09  : MJ1311YNG3UUPA (3TB Toshiba) data 012 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1
10  : MJ0351YNGA02YA (3TB Toshiba) data2 102 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1

geht

11  : MJ1311YNG3SAMA (3TB) data 013 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 -> potentiell gefährded, hat 6 Pending Sectors, 13,5 Jahre alt -> evtl. proaktiv tauschen
12  : WW60CK42 (4TB Seagate IronWolf Slim) data2 121 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1
13  : MJ1311YNG09EDA (3TB) data2 104 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1
14  : WD-WCC7K7VCRJZT (3TB WD Red) data 002 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1
15  : MCE9215Q0AUYTW (3TB Toshiba) data2 100 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1

geht

16  : ZDHBBDY5 (4TB Seagate Ironwolf) data2 120 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1
17  : 
18  : ZGY7821M (3TB Seagate IronWolf) data2 119 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1
19  : 
20  : MJ1311YNG3RM5A (3TB Toshiba) data 008 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1

geht

21  : WD-WCC7K5THL257 (3TB WD Red) data2 103 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1
22  : ZDHA9E6A (3TB Seagate Ironwolf) data 018 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1
23  : WD-WMC4N0L7H2HV (3TB WD) data2 107 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1
24  : WD-WCC7K2JL6DSL (3TB WD Red) data 010 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1
25  : WD-WCC4N5DZ1CEU (3TB WD Red) data2 115 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1

geht

26  : WD-WMC4N0L359DL (3TB WD) data2 106 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1
27  : WW6078X8 (4TB Seagate IronWolf Slim) data 019 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1
28  : WD-WCC4N1ZY6VVY (3TB WD Red) data2 110 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1
29  : WD-WCC4N6EVNFZ5 (3TB WD Red) data2 109 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1
30  : WD-WCC4N2DJ9XL8 (3TB WD Red) data 003 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1

geht

31  : MJ1311YNG3NT5A (3TB Toshiba) data 009 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1
32  : MCM9215Q0B9LSY (3TB Toshiba) data2 101 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1
33  : ZDHAWE09 (3TB Seagate Ironwolf) data2 105 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1
34  : MJ1311YNG38VGA (3TB Toshiba) data 004 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1
35  : MJ1311YNG3WZVA (3TB Toshiba) data 000 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1

geht

36  : WD-WCC7K0SNC8T6 (3TB WD Red) data2 111 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1
37  : ZDH906SD (4TB Seagate Ironwolf) data2 118 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1
38  : WD-WCC4N0RC60LS (3TB WD Red) data 006 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1
39  : WD-WCC4N2JPEN1D (3TB WD Red) data 017 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1
40  : WD-WCC4N4NHKFN0 (3TB WD Red) data2 117 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1

geht

41  : WD-WCC4N7CXVHLU (3TB WD Red) data2 112 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1
42  : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
43  : ZW633NRC (4TB IronWolf Slim) data2 108 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1
44  : MJ1311YNG3NZ3A (3TB Toshiba) data 011 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1
45  : ZW60FC09 (4TB Seagate IronWolf Slim) data 007 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1

TOTAL: 44 (20 + 23 + 0 SPARE (extern aber vorbereitet und getestet) + 1 Systemplatte) von 46 möglichen

Mapping der Festplatte mit fixer Zuordnung statt sdx

https://superuser.com/questions/617192/mapping-ata-device-number-to-logical-device-name

Raid Baubefehl

im Screen mdadm

mdadm --create /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1 /dev/sdl1 /dev/sdm1 /dev/sdn1 /dev/sdo1 /dev/sdp1


Re-Create 2014-01-31: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git:

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024

Re-Create 2014-05-23: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdn1:1024 /dev/sdp1:1024 /dev/sdl1:1024 /dev/sdo1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdk1:1024 /dev/sdw1:1024

Re-Create 2014-07-10: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024

Zweites Raid Baubefehl DATA2

im Screen mdadm

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdv1 /dev/sdw1 /dev/sdj1 /dev/sdh1

Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:

cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126

Öffnen:

cryptsetup luksOpen /dev/md126 cr_md126 

XFS Filesystem drauf:

mkfs.xfs /dev/mapper/cr_md126

Versuch Recreate 2014-10-12 nach missglücktem Grow von 4 auf 5 RAID-Devices, scheiße:

./mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdy1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdj1:1024

Echtes Recreate 2014-10-12:

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdq1 /dev/sdi1 /dev/sdj1 /dev/sdx1

Vierter (Dritter nicht dokumentiert) Raid Baubefehl DATA2 2021-10-28

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126 
cryptsetup luksOpen /dev/md126 cr_md126 
mkfs.xfs /dev/mapper/cr_md126

_________ 2021-11-18 nach normalem Reboot (Netzwerk war weg) ließ sich data2 nicht mehr mounten ("can't read superblock"), ist aber ein XFS-Problem, kein mdadm-Problem. xfs_repair lief nicht an (mount first etc. pp; -L Option NICHT genutzt) LÖSUNG: Reboot -> mdadm --stop -> mdadm --create --assume-clean etc. pp. -> dann mounten, dauert zwar sehr lange (ca. 20 Minuten), hat dann aber geklappt und alle Daten noch da

Drittes Raid Recreate DATA und DATA2 2015-01-20

./mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdk1:1024 /dev/sdx1:1024
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdm1:1024 /dev/sdo1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdd1:1024 /dev/sdh1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024

Builden OHNE Spare, also 18 Devices, dann Spare adden

Viertes Raid Recreate DATA 2015-02-01

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen. Ohne hddtemp etc. wohl auch stabiler

mdadm aus /builds/mdadm

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1:1024 /dev/sdd1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sdp1:1024 /dev/sdb1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024 


Mit normalem mdadm gehts wohl auch

mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1 /dev/sdd1 /dev/sdk1 /dev/sdg1 /dev/sdp1 /dev/sdb1 /dev/sdr1 /dev/sdf1 /dev/sdh1 /dev/sdj1 /dev/sde1 /dev/sdg1 /dev/sds1 /dev/sdu1 /dev/sdm1 /dev/sdq1 /dev/sdc1 /dev/sdv1 

Builden OHNE Spare, also 18 Devices, dann Spare adden

PROBLEM:

mdadm: failed to open /dev/sdg1 after earlier success - aborting

Fünftes Raid Recreate DATA 2015-02-28

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen.

mdadm aus /builds/mdadm

dqelcpfhmakgsunrjv 
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024 

Builden OHNE Spare, also 18 Devices, dann Spare adden

Sechstes Raid Recreate DATA und DATA2 2015-03-11

3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen.

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqemcpfhialgsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdi1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024 

Builden OHNE Spare, also 18 Devices, dann Spare adden

Siebtes Raid Recreate DATA und DATA2 2015-03-15

3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen.

DATA2 mit normalem mdadm

ybixw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdi1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqjdcprtgalshunfkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdf1:1024 /dev/sdk1:1024 /dev/sdv1:1024 

Builden OHNE Spare, also 18 Devices, dann Spare adden

Achtes Raid Recreate DATA und DATA2 2015-03-21

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfldpgicakhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

Neuntes Raid Recreate DATA und DATA2 2015-04-22

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

Zehntes Raid Recreate DATA und DATA2 2015-04-24

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

Elftes Raid Recreate DATA und DATA2 2015-04-26

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfmcpgidalhsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdd1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

12. Raid Recreate DATA und DATA2 2015-05-06

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqel cpfh makg sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024


smartctl-timeouts ergänzt 2015-05-07

/etc/udev/rules.d/ 
http://article.gmane.org/gmane.linux.raid/48238/match=smartctl+timeouts

The smartctl-timeouts scripts fix commonly mismatching defaults with drives that have no error recovery timeout configured, which has often lead to data loss.

To test, extract the files to /etc/udev/rules.d/ and

  • reboot*. For me, the rules somehow had no effect without rebooting.

13. Raid Recreate DATA und DATA2 2015-05-11

DATA2 mit normalem mdadm

xcswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdc1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

epfl dogi bakh rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024

14. Raid Recreate DATA und DATA2 2015-05-14

DATA2 mit normalem mdadm

xbswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

dpek cofh lajg rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024

15. Raid Recreate DATA und DATA2 2015-05-20

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl dpgi mbkh sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

16. Raid Recreate DATA und DATA2 2015-05-21

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfb 4 dpgi 8 jalh 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdj1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

17. Raid Recreate DATA und DATA2 2015-05-22

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024


18. Raid Recreate DATA und DATA2 2015-05-23

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

fqga 4 ephj 8 mcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

19. Raid Recreate DATA und DATA2 2015-05-24

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

fqgm 4 ephj 8 dbli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

20. Raid Recreate DATA und DATA2 2015-05-31

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

21. Raid Recreate DATA und DATA2 2015-06-06

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

22. Raid Recreate DATA und DATA2 2015-06-09

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

23. Raid Recreate DATA und DATA2 2015-06-11

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

24. Raid Recreate DATA und DATA2 2015-06-12

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

25. Raid Recreate DATA und DATA2 2015-06-20, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

26. Raid Recreate DATA und DATA2 2015-06-27, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

27. Raid Recreate DATA und DATA2 2015-06-28

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

28. Raid Recreate DATA und DATA2 2015-07-14

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

fqgm 4 ephj 8 bcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdb1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

29. Raid Recreate DATA und DATA2 2015-07-19

DATA2 mit normalem mdadm

xbswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

dpek 4 cofh 8 lajg 12 rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024

30. Raid Recreate DATA und DATA2 2015-07-26

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

31. Raid Recreate DATA und DATA2 2015-07-27

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqek 4 cpfh 8 lajg 12 sunriv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdi1:1024 /dev/sdv1:1024

32. Raid Recreate DATA und DATA2 2015-08-09

DATA2 mit normalem mdadm

xbswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

epfl 4 dogi 8 cakh 12 rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024

33. Raid Recreate DATA und DATA2 2015-08-20

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

34. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1

35. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL nach interupted DATA2 Raid6 Grow

Grow
mdadm --grow --raid-devices=6 /dev/md126 --backup-file=/home/gagi/mda126backup_20150911  

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
Neu dazu kam dann sdo1

Versuch von --update=revert-reshape

--assemble --update=revert-reshape" can be used to undo a reshape
 that has just been started but isn't really wanted.  This is very
 new and while it passes basic tests it cannot be guaranteed.

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 /dev/sdo1 --backup-file=/home/gagi/mda126backup_20150911
md126 Reshape läuft als Raid6 wieder normal an und hat auch resumed (bei ca. 1.5%) :-)
in diesem Zustand lässt sich md126 auf decrypten und mounten, Daten sind da.
Sieht also alles gut aus. Reshape dauert noch ca. 3400 Minunten, also ca. 2,36 Tage ;-)

36. Raid Recreate DATA und DATA2 2016-01-19 nach neuer Platte rein im Betrieb :-(

DATA2 mit normalem mdadm

aa cvz 4 yqo
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=7 /dev/sdaa1 /dev/sdc1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1


DATA mdadm aus /builds/mdadm

esfl 4 drgi 8 mbkh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024

37. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung

DATA2 mit normalem mdadm

ab bw aa 4 zrpo 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1


DATA mdadm aus /builds/mdadm

dtfm 4 csgi 8 nalh 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdn1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024

38. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung

DATA2 mit normalem mdadm

aa bvz 4 yqon 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1


DATA mdadm aus /builds/mdadm

dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024

39. Raid Recreate DATA und DATA2 2016-07-23

DATA2 mit normalem mdadm

ab bw aa 4 zrpo 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1


DATA mdadm aus /builds/mdadm

dtfl 4 csgi 8 makh 12 vxqujy
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdj1:1024 /dev/sdy1:1024

40. Raid Recreate DATA und DATA2 2016-07-24

DATA2 mit normalem mdadm

ab cw aa 4 zrpo 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdc1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1


DATA mdadm aus /builds/mdadm

etgm 4 dshj 8 nbli 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdn1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024

41. Raid Recreate DATA und DATA2 2016-07-26

DATA2 mit normalem mdadm

aa bvz 4 yqon 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1


DATA mdadm aus /builds/mdadm

dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024

42. Raid Recreate DATA2 2016-08-11 SATA-KARTEN UMGEBAUT, NEUES SCRIPT

DATA2 mit normalem mdadm

mvhl 4 kcsn 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1


43. Raid Recreate NUR DATA2 2016-08-18 nach interupted DATA2 Raid6 Grow

Grow
mdadm --grow --raid-devices=9 /dev/md126 --backup-file=/home/gagi/mda126backup

Dann ist bei ca. 45% das System gestallt (war heiß im Raum). Reboot -> md126 mit 9 Platten und clean, aber read-only und nicht mehr am Gown

DATA2 mit normalem mdadm

mvhl 4 kcsn
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1

Also nut mit 8 Devices -> FEHLER! und blöde Idee. cryptsetup LuksOpen geht zwar noch richtig, aber Filesystem-Fehler beim mounten

Neu dazu kam dann sdz1

Versuch von --update=revert-reshape

--assemble --update=revert-reshape" can be used to undo a reshape
 that has just been started but isn't really wanted.  This is very
 new and while it passes basic tests it cannot be guaranteed.

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1

geht nicht, das 9. und neue Device sdz1 hat andere Superblock!

cryptsetup luksClose cr_md125 

Nochmal createn mit 9, auch wenn 9. device sicher noch nicht richtig im Raid6 eingegrowt war. Allerdings könnte dann das Filesystem passen -> mount -> Daten da

lugk 4 jbrm 8 y
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdu1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdy1
mount: Einhängen von /dev/mapper/cr_md126 auf /data2 ist fehlgeschlagen: Die Struktur muss bereinigt werden 

Besser, aber nochwas komisch. -> XFS-Check

xfs_repair /dev/mapper/cr_md126 
Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 
Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 
bad magic # 0xc76d91a7 in inode 32617927112 (Daten fork) bmbt block 6322787567 
bad data fork in inode 32617927112 
cleared inode 32617927112 

Dann noch viele andere Fehler und einiges in lost&found (vor allem auch viel vom neuen Singstar-Song-Archiv, davon aber zum Glück noch Backup auf 750er ToughDrive vorhanden) ABER: md126 lässt sich mit crypt entschlüsseln UND danach auch mounten -> meisten Daten also wieder da!

nochmal stop und dann nochmal

mvhl 4 kcsn 8 z 
mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1 

Klappt nicht! :-(

So wie ist gehts zwar das mounten, allerdings sind scheinbar viele Daten korrupt! :-(((

md126 stoppen

nur mit den ursprünglichen 8 devices baun

 mvhl 4 kcsn
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 
xfs_repair 

Viele Fehler -> ohoh :-(( -> Shit alles weg bis auf 3TB lost&found


WICHTIG: DER GANZE UNTERBROCHENE GROW-PROZESS WÄRE WAHRSCHEINLICH EINFACH NACH DEM MOUNTEN (!!!) NORMAL WEITERGELAUFEN!!

Nochmal mit 9 aber 9. fehlend

 mvhl 4 kcsn 8 z
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 missing

-> geht auf und wird gemountet -> wieder einiges da -> xfs_repair (3x) -> dann keiner Fehler mehr erkannt -> Viele alten Daten wieder OK, neuere (so ab 19.9.2015) größtenteils korrupt :-(

9. devices wieder dazu -> wird neu eingebunden

44. Raid ReSync-Stop DATA 2016-11-01

Nach Hänger wollte DATA (schon noch clean) resynchen, was dann immer noch einiger Zeit (mehrere Stunden, ca. 50%) ohne log-Eintrag hängen blieb. Dies hat auch bei mehreren Anläufen (ca. 6 Stück) nicht geklappt.

Laufenden ReSync stoppen:

echo frozen > /sys/block/md125/md/sync_action 

Gestoppten ReSync als Complete setzen:

echo none > /sys/block/md125/md/resync_start 

Danach auch xfs-repair

xfs_repair /dev/mapper/cr_md125 

Cronjob ausgeschalten für Auto-Sync einmal im Monat

45. Raid Recreate DATA und DATA2 2016-11-08

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

46. Raid Recreate DATA und DATA2 2016-12-05

DATA2 mit normalem mdadm

lwgk 4 jbsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

47. Raid Recreate DATA und DATA2 2017-02-07

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

48. Raid Recreate DATA und DATA2 2017-02-24

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

49. Raid Recreate DATA 2017-03-24

Vormittags Server ganz aus. Dann Nachmittags hochgefahren, dabei sind 2 Platten "hängen geblieben" -> Data mit 2 fehlenden Platten clean but degraded

DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

50. Raid Recreate DATA und DATA2 2017-04-22

DATA2 mit normalem mdadm

lwgk 4 jbsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

51. Raid Recreate DATA und DATA2 2017-05-09 nach USV-Alarm und Shutdown

29 Platten insgesamt

DATA2 mit normalem mdadm

lvgk 4 jbrm 8 z
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1 


DATA mdadm aus /builds/mdadm

xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

52. Raid Recreate DATA und DATA2 2017-05-12

29 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

53. Raid Recreate DATA und DATA2 2017-05-13

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

54. Raid Recreate DATA2 2017-05-19 nach Mailand

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1

55. Raid Recreate DATA und DATA2 2017-05-21

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

56. Raid Recreate DATA und DATA2 2017-05-22

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

57. Raid Recreate DATA und DATA2 2017-05-26 Nach RöKo

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

58. Raid Recreate DATA und DATA2 2017-07-07 nach Zock

29 Platten insgesamt

DATA2 mit normalem mdadm

lvgk 4 jbrm 8 z
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1 


DATA mdadm aus /builds/mdadm

xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

59. Raid Recreate DATA und DATA2 2017-08-11

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

60. Raid Recreate DATA und DATA2 2017-08-13

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024


61. Raid Recreate DATA und DATA2 2017-08-16

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

62. Raid Recreate DATA und DATA2 2017-09-10 Nach Berlinfahrt

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

63. Raid Recreate DATA und DATA2 2017-09-11 Nach Berlinfahrt2

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

64. Raid Recreate DATA und DATA2 2017-10-15 schon mit neuer USV

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

65. Raid Recreate DATA und DATA2 2017-11-05

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

66. Raid Recreate DATA und DATA2 2017-11-07

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

67. Raid Recreate DATA und DATA2 2017-11-13

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

68. Raid Recreate DATA und DATA2 2017-11-19

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

69. Raid Recreate DATA und DATA2 2017-12-07

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

70. Raid Recreate DATA und DATA2 2017-12-22

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

71. Raid Recreate DATA und DATA2 2017-12-27

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kdsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdd1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zc aa q 4 yev ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdc1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

72. Raid Recreate DATA und DATA2 2018-01-04

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

73. Raid Recreate DATA und DATA2 2018-01-06 nach 40er Zock

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

74. Raid Recreate DATA und DATA2 2018-01-15 Nach Besuch Alex, Kammertür zu

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

75. Raid Recreate DATA und DATA2 2018-01-19

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbrm 8 ab t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1


DATA mdadm aus /builds/mdadm

zd aa p 4 ycv ad 8 qwo ac 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdp1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdq1:1024 /dev/sdw1:1024 /dev/sdo1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

76. Raid Recreate DATA und DATA2 2018-01-21

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

77. Raid Recreate DATA und DATA2 2018-01-24

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

78. Raid Recreate DATA und DATA2 2018-02-28

32 Platten insgesamt

DATA2 mit normalem mdadm

myhl 4 kcsn 8 ac ut
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdm1 /dev/sdy1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdac1 /dev/sdu1 /dev/sdt1


DATA mdadm aus /builds/mdadm

aa e ab q 4 zdv ae 8 rxp ad 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdaa1:1024 /dev/sde1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdae1:1024 /dev/sdr1:1024 /dev/sdx1:1024 /dev/sdp1:1024 /dev/sdad1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

79. Raid Recreate DATA und DATA2 2018-03-13 Arch->Debian

31 Platten insgesamt

DATA2 mit normalem mdadm

  lxgk 4 jbrm 8 ab ts
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1


DATA jetzt so auch mit Standard-mdadm, nicht mehr aus /builds/mdadm

zd aa p 4 ycu ad 8 qwo ac 12 fhaeni
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 --data-offset=1024 /dev/sdz1 /dev/sdd1 /dev/sdaa1 /dev/sdp1 /dev/sdy1 /dev/sdc1 /dev/sdu1 /dev/sdad1 /dev/sdq1 /dev/sdw1 /dev/sdo1 /dev/sdac1 /dev/sdf1 /dev/sdh1 /dev/sda1 /dev/sde1 /dev/sdn1 /dev/sdi1

80. Raid Recreate DATA2 2018-04-25 on Debian, md126 (Data2) sollte Grown

31 Platten insgesamt

DATA2 mit normalem mdadm

  kygl 4 ibrm 8 ab ts
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdk1 /dev/sdy1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1

sdu1 ist HOTSPARE und sollte eigentlich als Device Nummer 12 reingegrowt werden

81. Raid Recreate DATA2 2018-08-29 on Debian, md126 (Data2) sollte Grown

33 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(

DATA2 mit normalem mdadm

  kzgl 4 ibsm 8 ad utv
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=12 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1 

Mit 13. Grow-Device

  kzgl 4 ibsm 8 ad utv 12 ac
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=13 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1 /dev/sdac1 

sdac1 ist HOTSPARE und sollte eigentlich als Device Nummer 13 reingegrowt werden

LÖSUNG: Keiner der beiden oberen Befehle ausgeführt

 mdadm --stop /dev/md126  
 mdadm --assemble --scan  

Damit wurde wieder alles richtig erkannt. Dann luksopen und mounten -> Daten sind da und Grow setzt fort :-)

82. Raid Recreate DATA2 2019-09-10 on Debian, md126 (Data2) sollte Grown

34 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(

DATA2 mit normalem mdadm

  l aa hm 4 jbtn 8 ae vuw 12 ad r
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 

Das hab ich gemacht und war OK. Dann XFS-Check. Dann nochmal 15. Devices reingegrowt. Wieder ist der Reshape nicht losgelaufen.

Nach Reboot war das Array dann auch komisch (Raid0 statt Raid6 etc.). Deshalb wieder mdadm --stop /dev/md126

Dann nochmal create, aber OHNE --assume-clean -> Daten OK und da, aber Resync angelaufen

 mdadm --create /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 

Re-Sync ist durchgelaufen. Dann nochmal sdf1 neu partioniert (fd00 RAID), nochmal bad-block check, XFS-Check, Reboot -> alles OK

Wieder grow gestartet, wieder 0kb/sec und direkt am Anfang hängen geblieben.

LÖSUNG: Maximale Sync-Geschwindigkeit setzen:

echo max > /sys/block/md127/md/sync_max 

Damit ist der Reshape losgelaufen :-)

Dann nach ca. 21% Reshape Hänger. Hard-Reset; dann kam md127 also Raid0 etc. raus. Also automatischer Assemble-Scan hat nicht funktioniert, obwohl die 15 Einzelplatten beim --examine alle das richtige (Raid6, 1 Delta-Device etc.) angezeigt haben.

Dann dieses falsche Raid0 md127 gestoppt und NICHT neu created, sondern manuell assembled:

mdadm --assemble /dev/md126 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1 

OK, hat geklappt. Dann luksOpen und mount, dann ging auch der Reshape wieder bei 21% weiter :-) ___________________________________________________________________________________________________ ___________________________________________________________________________________________________

FALLS NÖTIG, nicht gemacht: Mit 15. Grow-Device

  l aa hm 4 jbtn 8 ae vuw 12 ad rf
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1 

sdf1 ist HOTSPARE und sollte eigentlich als Device Nummer 15 reingegrowt werden

LÖSUNG von davor (Punkt 81. : 13 Devices in md126 reingegrowt) hat leider nicht funktioniert:

 mdadm --stop /dev/md126  
 mdadm --assemble --scan

82. Raid Recreate DATA2 2021-10-29 on Debian, md126 (Data2) sollte Grown auf 20 Platten

41 Platten insgesamt

Grow-Befehl (VORSICHT: hat Backup-Datei nicht geschrieben, kürzen Filename verwenden und überprüfen!)

mdadm --grow --raid-devices=20 /dev/md126 --backup-file=/home/gagi/mda126backup_2021_10_29 

Grow-Reshape lief los, stockte dann aber und ging nicht weiter.

echo max > /sys/block/md126/md/sync_max 

hat leider nicht geholfen

mdadm --assemble --scan 

geht zwar und erkennt auch das Delta-Device richtig (beim Booten selbständig nicht, erst mdadm --stop und dann assemble-scan), aber reshape bleibt dann immer wieder stehen.

echo frozen > /sys/block/md126/md/sync_action 

nach dem assemble-scan, um reshape nicht sofort loslaufen zu lassen dann

xfs_repair /dev/mapper/cr_md126 
md126 : active raid6 sdm1[0] sdt1[20] sdab1[19] sdae1[17] sds1[16] sdq1[15] sdg1[14] sdu1[13] sdak1[12] sdaa1[11] sdx1[10] sdy1[9] sdal1[8] sdo1[7] sdw1[6] sdb1[5] sdk1[4] sdn1[3] sdi1[2] sdag1[1]
     49812285888 blocks super 1.2 level 6, 64k chunk, algorithm 2 [20/20] [UUUUUUUUUUUUUUUUUUUU]
       resync=PENDING
     bitmap: 1/22 pages [4KB], 65536KB chunk

Dann manuelles Neuzusammenbauen:

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29 

bringt

"mdadm: Reshape position is not suitably aligned.
mdadm: Try normal assembly and stop again" 

Dann also normal (also ohne revert-reshape):

mdadm --assemble /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29 

baut zwar das Array auch zusammen (eigentlich genauso wie assmble-scan, auch mit Delta-Device), aber gleiches Problem mit nicht-durchlaufendem Reshape Dann also assemble ohne das Delta-Device also ohne das letzte /dev/sdt1:

"mdadm: backup file /home/gagi/mda126backup_2021_10_29 inaccessible: No such file or directory
mdadm: /dev/md126 assembled from 19 drives - not enough to start the array while not clean - consider --force."

OK, dann also ein create mit nur den 19 Devices, um dann die 20te Platte nochmal neu dazu zu nehmen:

mdadm --create --assume-clean /dev/md126 --uuid=3fe35a06:a84c867c:69ea7e1c:2c808784 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 

LuksOpen findet nix!!! Dann nochmal create mit 20 Devices und letztes "missing": LuksOpen findet nix!!!

84. Raid Recreate DATA und DATA2 2022-09-24 on Debian, md127 (Data2) war schon gegrowt auf 21 Platten, 2 Spares neu dazu (Bad Mergentheim-Besuch)

43 Platten insgesamt

mehrere Platten von beides Raides waren im Betrieb disconnected -> beides Raids nicht mehr über --assemble --scan automatisch findbar,.

Manuelles Assemble:

mdadm --assemble /dev/md125 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1 

Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben.

Manuelles Neuzusammenbauen md125:

mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 --data-offset=1024 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1

-> GEHT! :-) -> md125 und DATA wieder da

Jetzt gehts an DATA2:

Manuelles Assemble:

mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1 

mdadm: cannot open device missing: No such file or directory Manuelles Assemble mit Faulty device statt missing:

mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 /dev/sdu1 /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1

Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben: mdadm: /dev/md126 assembled from 13 drives - not enough to start the array.

Manuelles Neuzusammenbauen md126:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=21 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1

-> GEHT! :-) -> md126 und DATA2 wieder da Ein Missing device, da kommt jetzt eine der neuen Spares rein.

85. Raid Recreate DATA2 2023-02-27 on Debian, md126 (Data2) ist bei ca. 50% im Grow hängen geblieben

44 Platten insgesamt

20 im DATA (alles gut) Grow von 22 auf 23 in DATA2

DATA2 wird nicht nach Reboot richtig gefunden, sondern als Raid0 erkannt. stoppen -> manuelles assemble:

mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 

klappt auch, Delta-Device erkannt. Rebuild läuft natürlich erstmal nicht an, da noch nicht gemountet. Mount klappt aber nicht (!) 100% CPU dabei, aber kein Fortschritt beim Rebuild, der noch laufende Mount scheint den Rebuild (richtigerweise) erstmal zu blocken. xfs_check läuft nicht, da der sagt, müsste erst gemountet werden. Versuch Assemble ohne neues Delta-Device:

mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing 

Geht nicht bei "nur" assemble mit "missing". Versuch ohne das Delta-Device (also erstmal wieder nur mit 22 Drives, wie vor dem Grow):

mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 

Macht er nicht mit der Fehlermeldung:

"mdadm: /dev/md126 assembled from 22 drives - not enough to start the array while not clean - consider --force."

Danach ist das komisch zusammengestellt: root@STORE2:/home/gagi# mdadm --detail /dev/md126 /dev/md126:

          Version : 1.2
       Raid Level : raid0
    Total Devices : 18
      Persistence : Superblock is persistent
            State : inactive
  Working Devices : 18
    Delta Devices : 1, (-1->0)
        New Level : raid6
       New Layout : left-symmetric
    New Chunksize : 64K
             Name : STORE2:126  (local to host STORE2)
             UUID : 2d2a484e:b89df4cb:a63eca33:fe22bcc5
           Events : 47096
   Number   Major   Minor   RaidDevice
      -      65        1        -        /dev/sdq1
      -       8        1        -        /dev/sda1
      -      66      129        -        /dev/sdao1
      -      66      113        -        /dev/sdan1
      -      66       65        -        /dev/sdak1
      -      66       49        -        /dev/sdaj1
      -      66       17        -        /dev/sdah1
      -      65      225        -        /dev/sdae1
      -      65      209        -        /dev/sdad1
      -      65      177        -        /dev/sdab1
      -      65      161        -        /dev/sdaa1
      -       8      209        -        /dev/sdn1
      -       8      161        -        /dev/sdk1
      -       8      145        -        /dev/sdj1
      -      65      129        -        /dev/sdy1
      -      65       81        -        /dev/sdv1
      -      65       33        -        /dev/sds1
      -       8       33        -        /dev/sdc1

Also wieder

mdadm --stop /dev/md126

Jetzt mit create aber OHNE missing, also nur für die alten 22 Drives:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=22 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 

OK, neues Array mit 22 Drives. Crypsetup klappt auch noch. Dann xfs_repair mit -n (keine Änderungen) -> findet keine Superblocks:

xfs_repair -n -v /dev/mapper/cr_md126

Phase 1 - find and verify superblock... bad primary superblock - bad magic number !!!

attempting to find secondary superblock... ..........................................

Mount funktioniert auch nicht (!!! :-( )

mount: /data2: wrong fs type, bad option, bad superblock on /dev/mapper/cr_md126, missing codepage or helper program, or other error. 

Stoppen:

mdadm --stop /dev/md126 
mdadm: Cannot get exclusive access to /dev/md126:Perhaps a running process, mounted filesystem or active volume group? 

-> Reboot, dann klappt auch stoppen (direkt ohne vorher was anderes zu machen wie crypsetup oder so)

Jetzt mit create aber MIT missing, also für die neuen 23 Drives:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing 

OK, geht, eine missing-device am Ende (logisch). xfs_check -n läuft aber zumindest mal los (also nicht mehr das superblock Problem) hat aber viele viele Fehler (!), die er aber wohl korrigieren würde/könnte (bisher nur simuliert, weil -n) Schlägt vorher Mounting vor wegen Journal-Einträgen usw.

mount /dev/mapper/cr_md126 /data2 
mount: /data2: mount(2) system call failed: Structure needs cleaning. 

Der Grow ist ja eben nur bis zur Hälfte durchgelaufen gewesen -> d.h. ein Array mit 23 Devices ist ja so (noch) nicht da gewesen (!) Wie kann man bei einem neu create eine halbes Delta-Device einbauen? Create mit SPARE drin und ohne --assume-clean -> evtl. wird Delta erkannt?

mdadm --create /dev/md127 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 

Ja, geht zwar, aber Delta nicht erkannt, ohne --assume-clean läuft dann ein resync an :-( Resync stoppen mit:

echo frozen > /sys/block/md127/md/sync_action 

xfs_check läuft wieder an (keine Superblock-Probleme) hat aber wieder viele viele Fehler (Grow war halt nicht fertig). Mount geht auch wieder nicht :-(

mount: /data2: can't read superblock on /dev/mapper/cr_md126. 

Dann nochmal das was noch am ehesten funktioniert hat:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing 

Und dann mit einen echten xfs_check, läuft sehr lange und bringt sehr sehr viele Fehlermeldungen (halber Grow) -> abgebrochen

Bringt so leider alles nix, Daten futsch !!! :-( Raid neu bauen und dann Backups von diversen Einzelplatte und von DATA wieder mühsam einspielen :-( Create neu ohne assume-clean und dann Sync:

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 

Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:

cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126 

Öffnen:

cryptsetup luksOpen /dev/md126 cr_md126  

(XFS Filesystem drauf:, in diesem Falle nicht getan)

mkfs.xfs /dev/mapper/cr_md126 

NEU: Wechsel auf Ext4:

mkfs.ext4 /dev/mapper/cr_md126 

Damit dann checkbar über:

e2fsck -v /dev/mapper/cr_md126 

Mounten:

mount /dev/mapper/cr_md126 /data2 

___________________________

Theoretische Idee für vor dem create: mit revert-reshape und --backup-file (NICHT gemacht, da das mal zu Datenverlust geführt hat!)

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 --backup-file=/home/gagi/mda127backup2

86. Raid Recreate DATA und DATA2 2023-11-10, 14TB HDD bb-Test über Nacht

44 Platten insgesamt

DATA2 mit normalem mdadm

u an hv 4 z ad ac w 8 al ag oc 12 aj te ae 16 a am fy 20 lj ap
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdu1 /dev/sdan1 /dev/sdh1 /dev/sdv1 /dev/sdz1 /dev/sdad1 /dev/sdac1 /dev/sdw1 /dev/sdal1 /dev/sdag1 /dev/sdo1 /dev/sdc1 /dev/sdaj1 /dev/sdt1 /dev/sde1 /dev/sdae1 /dev/sda1 /dev/sdam1 /dev/sdf1 /dev/sdy1 /dev/sdl1 /dev/sdj1 /dev/sdap1

ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:

e2fsck -v /dev/mapper/cr_md126 


DATA mit normalem mdadm und offset

ai pnd 4 ah sk aq 8 b aa x ao 12 girq 16 m ak ab af 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdai1 /dev/sdp1 /dev/sdn1 /dev/sdd1 /dev/sdah1 /dev/sds1 /dev/sdk1 /dev/sdaq1 /dev/sdb1 /dev/sdaa1 /dev/sdx1 /dev/sdao1 /dev/sdg1 /dev/sdi1 /dev/sdr1 /dev/sdq1 /dev/sdm1 /dev/sdak1 /dev/sdab1  /dev/sdaf1

87. Raid Recreate DATA und DATA2 2024-04-30, Copy-Job von Myth, vielen Platten fielen raus

44 Platten insgesamt

DATA2 mit normalem mdadm

m af es 4 o ao xu 8 an ac y ah 12 ak lb w 16 n ad ae v 20 ci am
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdm1 /dev/sdaf1 /dev/sde1 /dev/sds1 /dev/sdo1 /dev/sdao1 /dev/sdx1 /dev/sdu1 /dev/sdan1 /dev/sdac1 /dev/sdy1 /dev/sdah1 /dev/sdak1 /dev/sdl1 /dev/sdb1 /dev/sdw1 /dev/sdn1 /dev/sdad1 /dev/sdae1 /dev/sdv1 /dev/sdc1 /dev/sdi1 /dev/sdam1

ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:

e2fsck -v /dev/mapper/cr_md126 


DATA mit normalem mdadm und offset

ar jkz 4 aj h aa al 8 f ag r ap 12 dgpa 16 t ai q ab 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdar1 /dev/sdj1 /dev/sdk1 /dev/sdz1 /dev/sdaj1 /dev/sdh1 /dev/sdaa1 /dev/sdal1 /dev/sdf1 /dev/sdag1 /dev/sdr1 /dev/sdap1 /dev/sdd1 /dev/sdg1 /dev/sdp1 /dev/sda1 /dev/sdt1 /dev/sdai1 /dev/sdq1 /dev/sdab1

88. Raid Recreate DATA und DATA2 2024-05-08, einfach so, viele Platten fallen raus

44 Platten insgesamt

DATA2 mit normalem mdadm

t ae ku 4 aa an qc 8 al z y am 12 ai lof 16 n ac vm 20 as aj
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdt1 /dev/sdae1 /dev/sdk1 /dev/sdu1 /dev/sdaa1 /dev/sdan1 /dev/sdq1 /dev/sdc1 /dev/sdal1 /dev/sdz1 /dev/sdy1 /dev/sdam1 /dev/sdai1 /dev/sdl1 /dev/sdo1 /dev/sdf1 /dev/sdn1 /dev/sdac1 /dev/sdv1 /dev/sdm1 /dev/sda1 /dev/sds1 /dev/sdaj1

ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:

e2fsck -v /dev/mapper/cr_md126 


DATA mit normalem mdadm und offset

ak j ab ah 4 ag h af ap 8 g ad e ao 12 rpdb 16 i aq w x 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdj1 /dev/sdab1 /dev/sdah1 /dev/sdag1 /dev/sdh1 /dev/sdaf1 /dev/sdap1 /dev/sdg1 /dev/sdad1 /dev/sde1 /dev/sdao1 /dev/sdr1 /dev/sdp1 /dev/sdd1 /dev/sdb1 /dev/sdi1 /dev/sdaq1 /dev/sdw1 /dev/sdx1

89. Raid Recreate DATA und DATA2 2024-05-25, einfach so, viele Platten fallen raus

44 Platten insgesamt

DATA2 mit normalem mdadm

b ah nc 4 q ai vw 8 ao aa x ab 12 al mgt 16 a an ag e 20 hp am
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdb1 /dev/sdah1 /dev/sdn1 /dev/sdc1 /dev/sdq1 /dev/sdai1 /dev/sdv1 /dev/sdw1 /dev/sdao1 /dev/sdaa1 /dev/sdx1 /dev/sdab1 /dev/sdal1 /dev/sdm1 /dev/sdg1 /dev/sdt1 /dev/sda1 /dev/sdan1 /dev/sdag1 /dev/sde1 /dev/sdh1 /dev/sdp1 /dev/sdam1

ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:

e2fsck -v /dev/mapper/cr_md126 


DATA mit normalem mdadm und offset

ak ldz 4 aj o ac aq 8 i ae y ap 12 frjk 16 s ad u af 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdl1 /dev/sdd1 /dev/sdz1 /dev/sdaj1 /dev/sdo1 /dev/sdac1 /dev/sdaq1 /dev/sdi1 /dev/sdae1 /dev/sdy1 /dev/sdap1 /dev/sdf1 /dev/sdr1 /dev/sdj1 /dev/sdk1 /dev/sds1 /dev/sdad1 /dev/sdu1 /dev/sdaf1

90. Raid Recreate DATA und DATA2 2024-10-09, einfach so, viele Platten fallen raus

44 Platten insgesamt

beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.

DATA2 mit normalem mdadm

r ah dq 4 o ai xu 8 ap aa z ac 12 al icw 16 k ag ad e 20 ap ao
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdr1 /dev/sdah1 /dev/sdd1 /dev/sdq1 /dev/sdo1 /dev/sdai1 /dev/sdx1 /dev/sdu1 /dev/sdap1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdi1 /dev/sdc1 /dev/sdw1 /dev/sdk1 /dev/sdag1 /dev/sdad1 /dev/sde1 /dev/sda1 /dev/sdp1 /dev/sdao1

ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:

e2fsck -v /dev/mapper/cr_md126 


DATA mit normalem mdadm und offset

ak gs ab 4 aj h ae ar 8 j aq v am 12 bmlf 16 n af t y 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdg1 /dev/sds1 /dev/sdab1 /dev/sdaj1 /dev/sdh1 /dev/sdae1 /dev/sdar1 /dev/sdj1 /dev/sdaq1 /dev/sdv1 /dev/sdam1 /dev/sdb1 /dev/sdm1 /dev/sdl1 /dev/sdf1 /dev/sdn1 /dev/sdaf1 /dev/sdt1 /dev/sdy1

91. Raid Recreate DATA und DATA2 2024-10-09-II, einfach so, viele Platten fallen raus, Wechsel auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1

44 Platten insgesamt

beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.

Umstellung auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1

udevadm info --query=all --name=/dev/sdi | grep disk/by-id/ata

Eintragungen in disknum.txt und im Wiki ergänzt

DATA2 mit normalem mdadm

 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1

DATA mit normalem mdadm und offset

mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG25Z6A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1

92. Raid Recreate DATA und DATA2 2025-07-16, einfach so, viele Platten fallen raus, Wechsel auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1

44 Platten insgesamt

beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.

Umstellung auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1

udevadm info --query=all --name=/dev/sdi | grep disk/by-id/ata

Eintragungen in disknum.txt und im Wiki ergänzt

DATA2 mit normalem mdadm -> passt so

 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1

DATA mit normalem mdadm und offset -> eine Platte anders als bei 91., da diese dazwischen getauscht wurde (8. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !

mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1

93. 2025-08-31 Raid Baubefehl noch data2 rebuild wegen HDD-Tausch mit disk/by-id

2025-08-31 20-05-23-STORE2-HDD-Heatmap Problem-Platten dmesg

44 Platten insgesamt

Eintragungen in disknum.txt und im Wiki ergänzt

DATA2 mit normalem mdadm -> passt so

 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1

DATA mit normalem mdadm und offset -> eine Platte anders als bei 92., da diese dazwischen getauscht wurde (43. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !

mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1

Spare-Group einrichten

aktuelle Config in mdadm.conf schreiben

mdadm -D -s >> /etc/mdadm.conf 

spare-group ergänzen

nano /etc/mdadm.conf

ganz unten spare-group=shared ergänzen

ARRAY /dev/md/126 metadata=1.2 spares=1 name=store2:126 UUID=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx spare-group=shared

Raid-Baustatus

cat /proc/mdstat

automatisch jede Sekunde aktualisiert

watch -n 1 cat /proc/mdstat

Verschlüssel von Hand (ohne Yast2)

Verschlüsseln:

cryptsetup -v --key-size 256 luksFormat /dev/md125 

Mit speziellen Paramtern für Hardware-Verschlüsselung:

cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md125

Öffnen:

cryptsetup luksOpen /dev/md125 cr_md125 

Filesystem drauf:

mkfs.xfs /dev/mapper/cr_md125 
store2:~ # mkfs.xfs /dev/mapper/cr_md125
meta-data=/dev/mapper/cr_md125   isize=256    agcount=36, agsize=268435424 blks
         =                       sectsz=512   attr=2, projid32bit=0
data     =                       bsize=4096   blocks=9523357168, imaxpct=5
         =                       sunit=16     swidth=208 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal log           bsize=4096   blocks=521728, version=2
         =                       sectsz=512   sunit=16 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
root@STORE2:/dev/mapper# mkfs.xfs -f /dev/mapper/cr_md126
meta-data=/dev/mapper/cr_md126   isize=512    agcount=47, agsize=268435424 blks
         =                       sectsz=4096  attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=0
data     =                       bsize=4096   blocks=12453071184, imaxpct=5
         =                       sunit=16     swidth=272 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=521728, version=2
         =                       sectsz=4096  sunit=1 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

Status:

cryptsetup luksDump /dev/md125

Grown

Festplatte vorbereiten

Open gdisk with the first hard drive:
$ gdisk /dev/sda 

and type the following commands at the prompt:

   Add a new partition: n
   Select the default partition number: Enter
   Use the default for the first sector: Enter
   For sda1 and sda2 type the appropriate size in MB (i.e. +100MB and +2048M). For sda3 just hit Enter to select the remainder of the disk.
   Select Linux RAID as the partition type: fd00
   Write the table to disk and exit: w 

Bad Blocks

Screen-Umgebung starten

screen -S bb
badblocks -vs -o sdy-badblock-test /dev/sdy

bzw. bei sehr großen Platten (>8TB) noch mit dieser Option

badblocks -vs -b4096 -o 14badblock-test /dev/sdau 

verbose, show progress, output-file (log) badblocks sucht nur nach bad blocks, zerstört aber keine Daten.


Detach

Strg-a d = detach

Reatach

screen -r bb

ODER Wieder reingehen

screen -x bb

Falls nötig, Hot Spare aus Raid rausnehmen

mdadm --remove /dev/md125 /dev/sdn1

Device zum Raid hinzufügen

mdadm --add /dev/md126 /dev/sdf1

Raid reshapen mit zusätzlichem Device (dauert ca. 3 volle Tage)

mdadm --grow --raid-devices=15 /dev/md126 --backup-file=/home/gagi/mda126backup

Set Faulty

mdadm --manage --set-faulty /dev/md126 /dev/sdj1 

um zu sehen, wer/was gerade Zugriff nimmt:

lsof /data 

Samba-Service beenden:

rcsmb stop 
systemctl stop smbd.service 

Unmounten:

umount /data 


XFS (Data)

XFS checken (ungemountet)

xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126 

eigentlich einfach

 xfs_repair /dev/mapper/cr_md126

Cryptcontainer wachsen

cryptsetup --verbose resize cr_md126 

Mounten:

mount /dev/mapper/cr_md126 /data2

XFS vergrößern

xfs_growfs /data2 

XFS checken (ungemountet)

xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126 


Read-Only Mounten:

mount -o ro /dev/mapper/cr_md126 /data2

Samba-Freigabe

There's a bug in Samba in openSuse 11.4. Here's the workaround:

   go to Yast --> AppArmor --> Control Panel (on) --> Configure Profile Modes --> usr.sbin.smbd = complain
   go to Yast --> system --> runlevels --> smb=on + nmb=on
   reboot

Direkte Netwerkverbindung Store1 <-> Store 2.0

du kannst auch mal schauen was in /etc/udev/rules.d/70-persistent-net... (oder wie auch immer die date heißt) steht.

da wird die mac einer bestimmten netzwerkadresse (eth0, eth1, ...) zugewiesen.

die datei kannst du auch löschen oder verschieben - wird beim neustart neu angelegt.

da kommt machmal was durcheinander - bei 'nem kernelupdate oder bios-update.

GEHT ! unterschiedliche subnets (192.168.2.100 und 192.168.2.102)

Fast-Copy

1.) Empfänger (Store2.0)

cd <Zielverzeichnis> 
netcat -l -p 4323 | gunzip | cpio -i -d -m 

2.) Sender (Store)

cd <Quellverzeichnis>
find . -type f | cpio -p | gzip -1 | netcat 192.168.2.102 4323





1.) Empfänger (Store2.0)

socat tcp4-listen:4323 stdout | tar xvpf - /data/eBooks

2.) Sender (Store)

tar cvf - /data/eBooks | socat stdin tcp4:192.168.2.102:4323 


Test mit Fortschrittsanzeige bei bekannter Datengröße:

1.) Empfänger (Store2.0)

cd <Zielverzeichnis> 
socat tcp4-listen:4323 stdout | pv -s 93G | tar xvpf -

2.) Sender (Store)

cd <Quellverzeichnis> 
tar cvf - * | pv -s 93G | socat stdin tcp4:192.168.2.102:4323


dd if=/dev/sdl | bar -s 1.5T | dd of=/dev/sdw

FileBot Renamer Linux

filebot -rename -get-subtitles -non-strict /data/Downloads/Fertig/ --output /data/Downloads/Fertig/FileBot/ --format "{n}/Season {s}/{n}.{s00e00}.{t}" --db TheTVDB 
filebot -get-missing-subtitles -non-strict -r --lang en /data/Downloads/Fertig/FileBot/ 
filebot -script fn:replace --conflict override --def "e=.eng.srt" "r=.srt" /data/Downloads/Fertig/FileBot/

RemoteDesktop ArchLinux Client

z.B. auf Busfahrer: 
rdesktop -g 1440x900 -P -z  -x l -r sound:off -u gagi 192.168.1.149

Backplane-Rotation zur Fehlerdiagnose

Urzustand mit 24 Platten 2013-11-12

/dev/sdx -> 00 : 00000000000000 (1TB) 31��C
/dev/sdp -> 01 : WD-WCC070299387 (3TB WD) 31��C
/dev/sdq -> 03 : MJ1311YNG3SSLA (3TB) 33��C
/dev/sdr -> 05 : MJ1311YNG3NZ3A (3TB) 32��C
/dev/sds -> 07 : MJ1311YNG4J48A (3TB) 32��C
/dev/sdt -> 09 : MJ1311YNG3UUPA (3TB) 33��C
/dev/sdu -> 11 : MJ1311YNG3SAMA (3TB) 32��C
/dev/sdv -> 13 : MJ1311YNG3SU1A (3TB) 34��C
/dev/sdw -> 15 : MCE9215Q0AUYTW (3TB Toshiba neu) 31��C
/dev/sdh -> 16 : MJ0351YNGA02YA (3TB) nicht im Einsatz, bb-check 2013-08-28 37��C
/dev/sdi -> 18 : MJ1311YNG3Y4SA (3TB) 40��C
/dev/sdj -> 20 : WD-WCAWZ1881335 (3TB WD) hot spare 38��C
/dev/sdk -> 22 : WD-WCAWZ2279670 (3TB WD) 41��C
/dev/sdl -> 24 : MJ1311YNG25Z6A (3TB) 39��C
/dev/sdm -> 26 : MJ1311YNG3RM5A (3TB) 39��C
/dev/sdn -> 28 : MJ1311YNG3NT5A (3TB) 40��C
/dev/sdo -> 30 : MCM9215Q0B9LSY (3TB Toshiba neu) 38��C
/dev/sda -> 31 : 234BGY0GS (3TB Toshiba neu) 40��C
/dev/sdb -> 33 : MJ1311YNG3WZVA (3TB) 43��C
/dev/sdc -> 35 : MJ1311YNG3SYKA (3TB) 42��C
/dev/sdd -> 37 : WD-WCC070198169 (3TB WD) 41��C
/dev/sde -> 39 : MJ1311YNG3RZTA (3TB) 39��C
/dev/sdf -> 41 : MJ1311YNG3LTRA (3TB) 39��C
/dev/sdg -> 43 : MJ1311YNG38VGA (3TB) 39��C
Insgesamt 24 Platten gefunden.

Crashes

ArchLinux 2011-09-09

Sep  9 18:20:04 localhost kernel: [156439.479947] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.480035] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.486612] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.503656] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.504562] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:34:11 localhost -- MARK --
Sep  9 18:42:42 localhost kernel: [157797.911330] r8169: eth0: link up
Sep  9 18:54:11 localhost -- MARK --
Sep  9 19:14:11 localhost -- MARK --
Sep  9 19:34:11 localhost -- MARK --
Sep  9 19:54:11 localhost -- MARK --
Sep  9 20:14:11 localhost -- MARK --
Sep  9 20:27:32 localhost kernel: [164086.971566] r8169: eth0: link up
Sep  9 20:27:42 localhost kernel: [164097.580071] r8169: eth0: link up
Sep  9 20:27:50 localhost kernel: [164105.391755] r8169: eth0: link up
Sep  9 20:27:51 localhost kernel: [164106.272019] r8169: eth0: link up
Sep  9 20:28:12 localhost kernel: [164127.150062] r8169: eth0: link up
Sep  9 20:28:22 localhost kernel: [164137.941304] r8169: eth0: link up
Sep  9 20:28:33 localhost kernel: [164148.890097] r8169: eth0: link up
Sep  9 20:28:38 localhost kernel: [164153.080536] r8169: eth0: link up
Sep  9 20:28:58 localhost kernel: [164173.790064] r8169: eth0: link up
Sep  9 20:42:19 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Sep  9 20:42:19 localhost kernel: [    0.000000] Initializing cgroup subsys cpu
Sep  9 20:42:19 localhost kernel: [    0.000000] Linux version 2.6.32-lts (tobias@T-POWA-LX) (gcc version 4.6.1 20110819    (prerelease) (GCC) ) #1 SMP Tue Aug 30 08:59:44 CEST 2011
Sep  9 20:42:19 localhost kernel: [    0.000000] Command line: root=/dev/disk/by-uuid/ba47ea9a-c24c-4dc6-a9a2-ca3b442bdbfc ro vga=0x31B
Sep  9 20:42:19 localhost kernel: [    0.000000] KERNEL supported cpus:
Sep  9 20:42:19 localhost kernel: [    0.000000]   Intel GenuineIntel
Sep  9 20:42:19 localhost kernel: [    0.000000]   AMD AuthenticAMD
Sep  9 20:42:19 localhost kernel: [    0.000000]   Centaur CentaurHauls

OpenSuse 2011-09-26

Sep 26 23:15:59 store2 su: (to nobody) root on none
Sep 26 23:17:17  su: last message repeated 2 times
Sep 26 23:25:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 162
Sep 26 23:25:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166
Sep 26 23:25:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166
Sep 26 23:25:36 store2 smartd[4617]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166
Sep 26 23:25:37 store2 smartd[4617]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187
Sep 26 23:55:22 store2 smartd[4617]: Device: /dev/sdb [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 96
Sep 26 23:55:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 166
Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171
Sep 26 23:55:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171
Sep 26 23:55:32 store2 smartd[4617]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 98
Sep 27 00:55:26 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.

OpenSuse2011-09-27

Sep 27 16:35:17 store2 smbd[29588]: [2011/09/27 16:35:17.391212,  0] param/loadparm.c:8445(check_usershare_stat)
Sep 27 16:35:17 store2 smbd[29588]:   check_usershare_stat: file /var/lib/samba/usershares/ owned by uid 0 is not a regular file
Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795153,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795341,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795323,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:44:06 store2 smbd[29163]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795368,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:44:06 store2 smbd[29163]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795422,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:44:06 store2 smbd[29597]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:44:06 store2 smbd[29597]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795468,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:44:06 store2 smbd[29592]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:44:06 store2 smbd[29592]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499038,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499082,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499174,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499174,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:45:42 store2 smbd[29593]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:45:42 store2 smbd[29585]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:45:42 store2 smbd[29593]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:45:42 store2 smbd[29585]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 19:35:14 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.

OpenSuse 2011-09-29

während kräftigem Copyjob von Store

Sep 29 23:16:19  su: last message repeated 2 times
Sep 29 23:28:41 store2 smartd[4624]: Device: /dev/sdb [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 29 23:28:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 153 to 157
Sep 29 23:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 29 23:28:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157
Sep 29 23:28:57 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Sep 29 23:58:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 29 23:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 29 23:58:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 29 23:58:57 store2 smartd[4624]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193
Sep 29 23:58:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176
Sep 29 23:59:02 store2 smartd[4624]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Sep 30 00:28:41 store2 smartd[4624]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193
Sep 30 00:28:43 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 00:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 00:28:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Sep 30 00:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 00:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 00:58:59 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 30 01:28:50 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 01:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157
Sep 30 01:59:00 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:28:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 30 02:28:48 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 02:28:52 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 
Sep 30 02:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 09:39:22 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.

What you are seeing are the Normalized Attribute values changing.

For example when the Raw_Read_Error_Rate changed from 99 to 100, the increase in Normalized value from 99 to 100 means that the disk now thinks it is a bit LESS likely to fail than before, because this Normalized value is moving further above the (low) Threshold value.

ArchLinux 2011-10-17

Oct 17 21:21:35 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176
Oct 17 21:21:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176
Oct 17 21:21:45 localhost smartd[1941]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206
Oct 17 21:30:03 localhost -- MARK --
Oct 17 21:50:03 localhost -- MARK --
Oct 17 21:51:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Oct 17 21:51:41 localhost smartd[1941]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187
Oct 17 22:10:03 localhost -- MARK --
Oct 17 22:21:34 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Oct 17 22:21:47 localhost smartd[1941]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214
Oct 17 22:21:49 localhost smartd[1941]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214
Oct 17 22:30:03 localhost -- MARK --
Oct 17 22:50:03 localhost -- MARK --
Oct 17 23:11:18 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Oct 17 23:11:18 localhost kernel: [    0.000000] Initializing cgroup subsys cpu

ArchLinux 2011-11-06

Nov  6 12:39:05 localhost -- MARK --
Nov  6 12:42:18 localhost smartd[1927]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 200
Nov  6 12:42:20 localhost smartd[1927]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 187
Nov  6 12:42:24 localhost smartd[1927]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 222 to 214
Nov  6 12:42:25 localhost smartd[1927]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 222
Nov  6 12:42:26 localhost smartd[1927]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 214 to 222
Nov  6 12:59:05 localhost -- MARK --
Nov  6 14:29:21 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Nov  6 14:29:21 localhost kernel: [    0.000000] Initializing cgroup subsys cpu
Nov  6 14:29:21 localhost kernel: [    0.000000] Linux version 3.0-ARCH (tobias@T-POWA-LX) (gcc version 4.6.1 20110819 (prerelease) (GCC) ) #1 SMP PREEMPT Wed Oct$
Nov  6 14:29:21 localhost kernel: [    0.000000] Command line: root=/dev/disk/by-id/ata-Hitachi_HCS5C1016CLA382_JC0150HT0J7TPC-part3 ro
Nov  6 14:29:21 localhost kernel: [    0.000000] BIOS-provided physical RAM map: 

EINFACH SO!

ArchLinux 2011-11-21

Dabei war vorher ein Systemupdate gelaufen (inklusive neuem Kernel), aber noch nicht rebootet.

Nov 21 09:30:27 localhost smartd[2208]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206
Nov 21 09:30:30 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250
Nov 21 09:30:31 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240
Nov 21 09:30:35 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 240
Nov 21 09:43:32 localhost kernel: [1280595.864622] ------------[ cut here ]------------
Nov 21 09:43:32 localhost kernel: [1280595.864636] WARNING: at drivers/gpu/drm/i915/i915_irq.c:649 ironlake_irq_handler+0x1102/0x1110 [i915]()
Nov 21 09:43:32 localhost kernel: [1280595.864638] Hardware name: H61M-S2V-B3
Nov 21 09:43:32 localhost kernel: [1280595.864639] Missed a PM interrupt
Nov 21 09:43:32 localhost kernel: [1280595.864640] Modules linked in: xfs sha256_generic dm_crypt dm_mod raid456 async_raid6_recov async_pq raid6_pq async_xor xor async_memcpy async_tx md_mod coretemp nfsd exportfs nfs lockd fscache  auth_rpcgss nfs_acl sunrpc ipv6 ext2 sr_mod cdrom snd_hda_codec_realtek usb_storage uas sg evdev snd_hda_intel snd_hda_codec iTCO_wdt snd_hwdep snd_pcm snd_timer i915 snd drm_kms_helper drm pcspkr i2c_algo_bit r8169 ppdev i2c_i801 shp chp parport_pc intel_agp i2c_core pci_hotplug parport intel_gtt mei(C) soundcore snd_page_alloc processor button mii iTCO_vendor_support video aesni_intel cryptd aes_x86_64 aes_generic ext4 mbcache jbd2 crc16 usbhid hid sd_mod sata_sil24 ahci libahci libata scsi_mod ehci_hcd usbcore
Nov 21 09:43:32 localhost kernel: [1280595.864674] Pid: 0, comm: swapper Tainted: G         C  3.0-ARCH #1
Nov 21 09:43:32 localhost kernel: [1280595.864675] Call Trace:
Nov 21 09:43:32 localhost kernel: [1280595.864676]  <IRQ>  [<ffffffff8105c76f>] warn_slowpath_common+0x7f/0xc0
Nov 21 09:43:32 localhost kernel: [1280595.864684]  [<ffffffff8105c866>] warn_slowpath_fmt+0x46/0x50
Nov 21 09:43:32 localhost kernel: [1280595.864688]  [<ffffffff81078f7d>] ? queue_work+0x5d/0x70
Nov 21 09:43:32 localhost kernel: [1280595.864693]  [<ffffffffa0235a22>] ironlake_irq_handler+0x1102/0x1110 [i915]
Nov 21 09:43:32 localhost kernel: [1280595.864696]  [<ffffffff812a4bc5>] ? dma_issue_pending_all+0x95/0xa0
Nov 21 09:43:32 localhost kernel: [1280595.864699]  [<ffffffff81333db1>] ? net_rx_action+0x131/0x300
Nov 21 09:43:32 localhost kernel: [1280595.864702]  [<ffffffff810bf835>] handle_irq_event_percpu+0x75/0x2a0
Nov 21 09:43:32 localhost kernel: [1280595.864705]  [<ffffffff810bfaa5>] handle_irq_event+0x45/0x70
Nov 21 09:43:32 localhost kernel: [1280595.864707]  [<ffffffff810c21af>] handle_edge_irq+0x6f/0x120
Nov 21 09:43:32 localhost kernel: [1280595.864710]  [<ffffffff8100d9f2>] handle_irq+0x22/0x40
Nov 21 09:43:32 localhost kernel: [1280595.864712]  [<ffffffff813f66aa>] do_IRQ+0x5a/0xe0
Nov 21 09:43:32 localhost kernel: [1280595.864715]  [<ffffffff813f4393>] common_interrupt+0x13/0x13
Nov 21 09:43:32 localhost kernel: [1280595.864716]  <EOI>  [<ffffffff81273cdb>] ? intel_idle+0xcb/0x120
Nov 21 09:43:32 localhost kernel: [1280595.864720]  [<ffffffff81273cbd>] ? intel_idle+0xad/0x120
Nov 21 09:43:32 localhost kernel: [1280595.864723]  [<ffffffff81313d9d>] cpuidle_idle_call+0x9d/0x350
Nov 21 09:43:32 localhost kernel: [1280595.864726]  [<ffffffff8100a21a>] cpu_idle+0xba/0x100
Nov 21 09:43:32 localhost kernel: [1280595.864729]  [<ffffffff813d1eb2>] rest_init+0x96/0xa4
Nov 21 09:43:32 localhost kernel: [1280595.864731]  [<ffffffff81748c23>] start_kernel+0x3de/0x3eb
Nov 21 09:43:32 localhost kernel: [1280595.864733]  [<ffffffff81748347>] x86_64_start_reservations+0x132/0x136
Nov 21 09:43:32 localhost kernel: [1280595.864735]  [<ffffffff81748140>] ? early_idt_handlers+0x140/0x140
Nov 21 09:43:32 localhost kernel: [1280595.864737]  [<ffffffff8174844d>] x86_64_start_kernel+0x102/0x111
Nov 21 09:43:32 localhost kernel: [1280595.864738] ---[ end trace 01037f4ec3ec4ee5 ]---
Nov 21 10:00:16 localhost smartd[2208]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200
Nov 21 10:00:18 localhost smartd[2208]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 193
Nov 21 10:00:19 localhost smartd[2208]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200
Nov 21 10:00:23 localhost smartd[2208]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200
Nov 21 10:00:29 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240
Nov 21 10:00:30 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250
Nov 21 10:00:33 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 230
Nov 21 10:00:34 localhost smartd[2208]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250
Nov 21 11:52:01 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Nov 21 11:52:01 localhost kernel: [    0.000000] Initializing cgroup subsys cpu