Store 2.0: Unterschied zwischen den Versionen
Admin (Diskussion | Beiträge) |
|||
| (10 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt) | |||
| Zeile 50: | Zeile 50: | ||
4.) Mounten: | 4.) Mounten: | ||
mount /dev/mapper/cr_md125 /data | mount /dev/mapper/cr_md125 /data | ||
Wichtig, speziell für data2 mit ext4 und ghost-inodes: | |||
mount -o rw,errors=continue,noatime /dev/mapper/cr_md126 /data2 | |||
Schliessen wäre: | Schliessen wäre: | ||
| Zeile 136: | Zeile 137: | ||
== Serials der Datenplatten == | == Serials der Datenplatten == | ||
[[Datei:2025-08-31 00-23-42-STORE2-HDD-Heatmap-DE.png|mini|2025-08-31 00-23-42-STORE2-HDD-Heatmap]] | |||
00 : 00000000000000 (1TB System (Arch), Samsung) /dev/disk/by-id/ata-SAMSUNG_HD103UJ_00000000000000 | 00 : 00000000000000 (1TB System (Arch), Samsung) /dev/disk/by-id/ata-SAMSUNG_HD103UJ_00000000000000 | ||
| Zeile 159: | Zeile 160: | ||
---- | ---- | ||
geht | geht | ||
11 : MJ1311YNG3SAMA (3TB) data 013 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 | 11 : MJ1311YNG3SAMA (3TB) data 013 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 -> potentiell gefährded, hat 6 Pending Sectors, 13,5 Jahre alt -> evtl. proaktiv tauschen | ||
12 : WW60CK42 (4TB Seagate IronWolf Slim) data2 121 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 | 12 : WW60CK42 (4TB Seagate IronWolf Slim) data2 121 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 | ||
13 : MJ1311YNG09EDA (3TB) data2 104 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 | 13 : MJ1311YNG09EDA (3TB) data2 104 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 | ||
| Zeile 211: | Zeile 212: | ||
41 : WD-WCC4N7CXVHLU (3TB WD Red) data2 112 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 | 41 : WD-WCC4N7CXVHLU (3TB WD Red) data2 112 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 | ||
42 : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1 | 42 : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1 | ||
43 : | 43 : ZW633NRC (4TB IronWolf Slim) data2 108 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1 | ||
44 : MJ1311YNG3NZ3A (3TB Toshiba) data 011 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 | 44 : MJ1311YNG3NZ3A (3TB Toshiba) data 011 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 | ||
45 : ZW60FC09 (4TB Seagate IronWolf Slim) data 007 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 | 45 : ZW60FC09 (4TB Seagate IronWolf Slim) data 007 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 | ||
| Zeile 2.004: | Zeile 2.005: | ||
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1 | mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1 | ||
'''DATA mit normalem mdadm und offset -> eine Platte anders als bei 91., da diese dazwischen getauscht wurde!''' | '''DATA mit normalem mdadm und offset -> eine Platte anders als bei 91., da diese dazwischen getauscht wurde (8. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !''' | ||
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1 | |||
= 93. 2025-08-31 Raid Baubefehl noch data2 rebuild wegen HDD-Tausch mit disk/by-id = | |||
[[Datei:2025-08-31 20-05-23-STORE2-HDD-Heatmap Problem-Platten dmesg.png|mini|2025-08-31 20-05-23-STORE2-HDD-Heatmap Problem-Platten dmesg]] | |||
44 Platten insgesamt | |||
Eintragungen in disknum.txt und im Wiki ergänzt | |||
'''DATA2 mit normalem mdadm -> passt so''' | |||
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1 | |||
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata- | '''DATA mit normalem mdadm und offset -> eine Platte anders als bei 92., da diese dazwischen getauscht wurde (43. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !''' | ||
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1 | |||
= Spare-Group einrichten = | = Spare-Group einrichten = | ||
Aktuelle Version vom 17. September 2025, 18:56 Uhr
STABILITÄT Store 2.0
Vermutung: Die drei SATA-Erweiterungskarten crashen gelegentlich das komplette System.
Karten:
http://www.sybausa.com/productInfo.php?iid=537
Syba SY-PEX40008 4-port SATA II PCI-e Software RAID Controller Card--Bundle with Low Profile Bracket, SIL3124 Chipset Sind die identischen Karten, die immer noch von Backblaze verbaut werden (Pod 2.0 UND Pod 3.0!) Hängen an drei PCI-E 1x (kleiner Port)
RAID bliebt heile (zum Glück!), da die Karten dann komplett die Zugriff sperren.
Arch-Log files haben gar keine Einträge zu den Crashs!!!
Remote-Log über Syslogd (über Myth) zeigt als letzten Eintrag:
mdadm: sending ioctl 1261 to a partition (buggy Eintrag, aber unkritisch) sata_sil24: IRQ status == 0xffffffff, PCI fault or device removal
sata-sil24:
https://ata.wiki.kernel.org/index.php/Sata_sil24
Spurious interrupts are expected on SiI3124 suffering from IRQ loss erratum on PCI-X
PATCH?
http://old.nabble.com/-PATCH-06-13--sata_sil24%3A-implement-loss-of-completion-interrupt-on-PCI-X-errta-fix-p3799674.html
Thread über Zugang mit SIL3124 Chip
http://www.linuxquestions.org/questions/linux-kernel-70/how-to-access-sata-drives-attached-to-sii3124-719408/
Test?
http://marc.info/?l=linux-ide&m=127228317404771&w=2
Raid nach Booten öffnen und mount
Um Auto-Assembly beim Booten zu verhindern muss die Config-Datei /etc/mdadm.conf leer (oder zumindest komplett auskommentiert sein) und "MDADM_SCAN=no" in /etc/sysconfig/mdadm
1.) Checken ob alle Platten da sind:
/usr/local/bin/ds.sh
Müssen im Moment 17 Platten sein. Basis ist die Datei disknum.txt unter /root/bin
2.) Raids suchen und assemblen (kein Autostart):
mdadm --assemble --scan
3.) Cryptsetup:
cryptsetup luksOpen /dev/md125 cr_md125
4.) Mounten:
mount /dev/mapper/cr_md125 /data
Wichtig, speziell für data2 mit ext4 und ghost-inodes:
mount -o rw,errors=continue,noatime /dev/mapper/cr_md126 /data2
Schliessen wäre:
cryptsetup luksClose cr_md125
JD2
java -Xmx512m -jar /home/gagi/jd2/JDownloader.jar
bzw in /home/gagi/jd2/
./JDownloader2
VNC
dergagi.selfhost.bz:5901
NextCloud
Anleitung überhaupt
https://www.howtoforge.de/anleitung/wie-man-nextcloud-unter-debian-10-installiert/
DuckDNS und Letsencrypt
https://www.edvpfau.de/wildcard-zertifikat-mit-duckdns-erstellen/
1. Wildcard Zertifikat holen:
certbot --server https://acme-v02.api.letsencrypt.org/directory -d *.dergagi9.duckdns.org --manual --preferred-challenges dns-01 certonly
Einmal "Y" drücken und dann offen lassen für später
2. Secret setzen, dabei Token von DuckDNS-Account verwenden, das hintere ist aus der ersten Abfrage einzusetzen
curl "https://www.duckdns.org/update?domains=dergagi9.duckdns.org&token=51570840-8ed4-403a-8090-30f4dacc3b2f&txt=rL-ALVVDfHal08GUWz1T0PAevUOcWT-HgvJ7eMd0J6o"
3. Prüfen, ob TXT record gesetzt ist:
https://www.digwebinterface.com/?hostnames=dergagi9.duckdns.org&type=TXT&ns=resolver&useresolver=8.8.4.4&nameservers=
4. Certbot Validierung fortsetzen
dann erst im ersten Fenster "Return" drücken
NEU 2022-02: Automatisiertes Skript zur Zertifikatsaktualisierung, wie hier beschrieben
https://www.edvpfau.de/automatische-erneuerung-der-letsencrypt-wildcard-zertifikate-mit-duckdns/
______________________________________________________________________
Dateien "locked", können also z.B. nicht gelöscht werden
put Nextcloud in maintenance mode:
gedit /var/www/html/nextcloud/config/config.php
and change this line: 'maintenance' => true,
Empty table oc_file_locks: Use tool mysql run (the default table prefix is oc_, this prefix can be different or even empty):
mysql -u nextclouduser -p nextclouddb
password Dann ist man in MaridDb eingeloggt; darin dann:
DELETE FROM oc_file_locks WHERE 1; \q
disable maintenance mode (undo first step)
gedit /var/www/html/nextcloud/config/config.php
and change this line: 'maintenance' => false,
Festplatten-Layout
3000GB Hitachi Deskstar 5K3000 HDS5C3030ALA630 CoolSpin 32MB 3.5" (8.9cm) SATA 6Gb/s
3000GB Western Digital WD30EZRX 3TB interne Festplatte (8,9 cm (3,5 Zoll), 5400 rpm, 2ms, 64MB Cache, SATA III
Problem mit WD-Platten und LCC
http://idle3-tools.sourceforge.net/ http://koitsu.wordpress.com/2012/05/30/wd30ezrx-and-aggressive-head-parking/
Get idle3 timer raw value
idle3ctl -g /dev/sdh
Disable idle3 timer:
idle3ctl -d /dev/sdh
Serial auslesen mit:
udevadm info --query=all --name=/dev/sdi | grep ID_SERIAL_SHORT
Für /dev/disk/by-id
udevadm info --query=all --name=/dev/sdi1 | grep disk/by-id/ata
Serial Systemplatte 160GB:
JC0150HT0J7TPC
Serials der Datenplatten

00 : 00000000000000 (1TB System (Arch), Samsung) /dev/disk/by-id/ata-SAMSUNG_HD103UJ_00000000000000
geht
01 : 234BGY0GS (3TB Toshiba) data 014 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 02 : ZDHB5RY6 (3TB Ironwolf NAS) data 016 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 03 : ZGY7743F (3TB Ironwolf NAS) data 015 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 04 : MJ1311YNG3Y4SA (3TB Toshiba) data 005 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 05 : MJ1311YNG3SYKA (3TB Toshiba) data 001 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1
geht jetzt auch, Molex-Kontakt Problem behoben
06 : MJ1311YNG4J48A (3TB Toshiba) data2 113 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 07 : WW60B6RZ (4TB Seagate Ironwolf Slim) data2 116 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 08 : WD-WCC4N3CHNN7K (3TB WD Red) data2 114 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 09 : MJ1311YNG3UUPA (3TB Toshiba) data 012 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 10 : MJ0351YNGA02YA (3TB Toshiba) data2 102 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1
geht
11 : MJ1311YNG3SAMA (3TB) data 013 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 -> potentiell gefährded, hat 6 Pending Sectors, 13,5 Jahre alt -> evtl. proaktiv tauschen 12 : WW60CK42 (4TB Seagate IronWolf Slim) data2 121 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 13 : MJ1311YNG09EDA (3TB) data2 104 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 14 : WD-WCC7K7VCRJZT (3TB WD Red) data 002 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 15 : MCE9215Q0AUYTW (3TB Toshiba) data2 100 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1
geht
16 : ZDHBBDY5 (4TB Seagate Ironwolf) data2 120 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 17 : 18 : ZGY7821M (3TB Seagate IronWolf) data2 119 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 19 : 20 : MJ1311YNG3RM5A (3TB Toshiba) data 008 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1
geht
21 : WD-WCC7K5THL257 (3TB WD Red) data2 103 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 22 : ZDHA9E6A (3TB Seagate Ironwolf) data 018 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 23 : WD-WMC4N0L7H2HV (3TB WD) data2 107 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 24 : WD-WCC7K2JL6DSL (3TB WD Red) data 010 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 25 : WD-WCC4N5DZ1CEU (3TB WD Red) data2 115 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1
geht
26 : WD-WMC4N0L359DL (3TB WD) data2 106 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 27 : WW6078X8 (4TB Seagate IronWolf Slim) data 019 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1 28 : WD-WCC4N1ZY6VVY (3TB WD Red) data2 110 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 29 : WD-WCC4N6EVNFZ5 (3TB WD Red) data2 109 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 30 : WD-WCC4N2DJ9XL8 (3TB WD Red) data 003 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1
geht
31 : MJ1311YNG3NT5A (3TB Toshiba) data 009 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 32 : MCM9215Q0B9LSY (3TB Toshiba) data2 101 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 33 : ZDHAWE09 (3TB Seagate Ironwolf) data2 105 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 34 : MJ1311YNG38VGA (3TB Toshiba) data 004 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 35 : MJ1311YNG3WZVA (3TB Toshiba) data 000 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1
geht
36 : WD-WCC7K0SNC8T6 (3TB WD Red) data2 111 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 37 : ZDH906SD (4TB Seagate Ironwolf) data2 118 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 38 : WD-WCC4N0RC60LS (3TB WD Red) data 006 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 39 : WD-WCC4N2JPEN1D (3TB WD Red) data 017 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 40 : WD-WCC4N4NHKFN0 (3TB WD Red) data2 117 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1
geht
41 : WD-WCC4N7CXVHLU (3TB WD Red) data2 112 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 42 : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1 43 : ZW633NRC (4TB IronWolf Slim) data2 108 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1 44 : MJ1311YNG3NZ3A (3TB Toshiba) data 011 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 45 : ZW60FC09 (4TB Seagate IronWolf Slim) data 007 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1
TOTAL: 44 (20 + 23 + 0 SPARE (extern aber vorbereitet und getestet) + 1 Systemplatte) von 46 möglichen
Mapping der Festplatte mit fixer Zuordnung statt sdx
https://superuser.com/questions/617192/mapping-ata-device-number-to-logical-device-name
Raid Baubefehl
im Screen mdadm
mdadm --create /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1 /dev/sdl1 /dev/sdm1 /dev/sdn1 /dev/sdo1 /dev/sdp1
Re-Create 2014-01-31:
NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git:
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024
Re-Create 2014-05-23: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdn1:1024 /dev/sdp1:1024 /dev/sdl1:1024 /dev/sdo1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdk1:1024 /dev/sdw1:1024
Re-Create 2014-07-10: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024
Zweites Raid Baubefehl DATA2
im Screen mdadm
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdv1 /dev/sdw1 /dev/sdj1 /dev/sdh1
Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126
Öffnen:
cryptsetup luksOpen /dev/md126 cr_md126
XFS Filesystem drauf:
mkfs.xfs /dev/mapper/cr_md126
Versuch Recreate 2014-10-12 nach missglücktem Grow von 4 auf 5 RAID-Devices, scheiße:
./mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdy1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdj1:1024
Echtes Recreate 2014-10-12:
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdq1 /dev/sdi1 /dev/sdj1 /dev/sdx1
Vierter (Dritter nicht dokumentiert) Raid Baubefehl DATA2 2021-10-28
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126
cryptsetup luksOpen /dev/md126 cr_md126
mkfs.xfs /dev/mapper/cr_md126
_________ 2021-11-18 nach normalem Reboot (Netzwerk war weg) ließ sich data2 nicht mehr mounten ("can't read superblock"), ist aber ein XFS-Problem, kein mdadm-Problem. xfs_repair lief nicht an (mount first etc. pp; -L Option NICHT genutzt) LÖSUNG: Reboot -> mdadm --stop -> mdadm --create --assume-clean etc. pp. -> dann mounten, dauert zwar sehr lange (ca. 20 Minuten), hat dann aber geklappt und alle Daten noch da
Drittes Raid Recreate DATA und DATA2 2015-01-20
./mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdk1:1024 /dev/sdx1:1024
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdm1:1024 /dev/sdo1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdd1:1024 /dev/sdh1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Viertes Raid Recreate DATA 2015-02-01
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen. Ohne hddtemp etc. wohl auch stabiler
mdadm aus /builds/mdadm
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1:1024 /dev/sdd1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sdp1:1024 /dev/sdb1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024
Mit normalem mdadm gehts wohl auch
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1 /dev/sdd1 /dev/sdk1 /dev/sdg1 /dev/sdp1 /dev/sdb1 /dev/sdr1 /dev/sdf1 /dev/sdh1 /dev/sdj1 /dev/sde1 /dev/sdg1 /dev/sds1 /dev/sdu1 /dev/sdm1 /dev/sdq1 /dev/sdc1 /dev/sdv1
Builden OHNE Spare, also 18 Devices, dann Spare adden
PROBLEM:
mdadm: failed to open /dev/sdg1 after earlier success - aborting
Fünftes Raid Recreate DATA 2015-02-28
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen.
mdadm aus /builds/mdadm
dqelcpfhmakgsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Sechstes Raid Recreate DATA und DATA2 2015-03-11
3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen.
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqemcpfhialgsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdi1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Siebtes Raid Recreate DATA und DATA2 2015-03-15
3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen.
DATA2 mit normalem mdadm
ybixw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdi1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqjdcprtgalshunfkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdf1:1024 /dev/sdk1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Achtes Raid Recreate DATA und DATA2 2015-03-21
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfldpgicakhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Neuntes Raid Recreate DATA und DATA2 2015-04-22
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Zehntes Raid Recreate DATA und DATA2 2015-04-24
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Elftes Raid Recreate DATA und DATA2 2015-04-26
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfmcpgidalhsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdd1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
12. Raid Recreate DATA und DATA2 2015-05-06
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqel cpfh makg sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
smartctl-timeouts ergänzt 2015-05-07
/etc/udev/rules.d/ http://article.gmane.org/gmane.linux.raid/48238/match=smartctl+timeouts
The smartctl-timeouts scripts fix commonly mismatching defaults with drives that have no error recovery timeout configured, which has often lead to data loss.
To test, extract the files to /etc/udev/rules.d/ and
- reboot*. For me, the rules somehow had no effect without rebooting.
13. Raid Recreate DATA und DATA2 2015-05-11
DATA2 mit normalem mdadm
xcswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdc1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
epfl dogi bakh rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024
14. Raid Recreate DATA und DATA2 2015-05-14
DATA2 mit normalem mdadm
xbswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
dpek cofh lajg rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024
15. Raid Recreate DATA und DATA2 2015-05-20
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl dpgi mbkh sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
16. Raid Recreate DATA und DATA2 2015-05-21
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfb 4 dpgi 8 jalh 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdj1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
17. Raid Recreate DATA und DATA2 2015-05-22
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
18. Raid Recreate DATA und DATA2 2015-05-23
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
fqga 4 ephj 8 mcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
19. Raid Recreate DATA und DATA2 2015-05-24
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
fqgm 4 ephj 8 dbli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
20. Raid Recreate DATA und DATA2 2015-05-31
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
21. Raid Recreate DATA und DATA2 2015-06-06
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
22. Raid Recreate DATA und DATA2 2015-06-09
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
23. Raid Recreate DATA und DATA2 2015-06-11
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
24. Raid Recreate DATA und DATA2 2015-06-12
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
25. Raid Recreate DATA und DATA2 2015-06-20, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
26. Raid Recreate DATA und DATA2 2015-06-27, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
27. Raid Recreate DATA und DATA2 2015-06-28
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
28. Raid Recreate DATA und DATA2 2015-07-14
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
fqgm 4 ephj 8 bcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdb1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
29. Raid Recreate DATA und DATA2 2015-07-19
DATA2 mit normalem mdadm
xbswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
dpek 4 cofh 8 lajg 12 rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024
30. Raid Recreate DATA und DATA2 2015-07-26
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
31. Raid Recreate DATA und DATA2 2015-07-27
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqek 4 cpfh 8 lajg 12 sunriv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdi1:1024 /dev/sdv1:1024
32. Raid Recreate DATA und DATA2 2015-08-09
DATA2 mit normalem mdadm
xbswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
epfl 4 dogi 8 cakh 12 rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024
33. Raid Recreate DATA und DATA2 2015-08-20
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
34. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
35. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL nach interupted DATA2 Raid6 Grow
Grow mdadm --grow --raid-devices=6 /dev/md126 --backup-file=/home/gagi/mda126backup_20150911
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
Neu dazu kam dann sdo1
Versuch von --update=revert-reshape
--assemble --update=revert-reshape" can be used to undo a reshape that has just been started but isn't really wanted. This is very new and while it passes basic tests it cannot be guaranteed. mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 /dev/sdo1 --backup-file=/home/gagi/mda126backup_20150911
md126 Reshape läuft als Raid6 wieder normal an und hat auch resumed (bei ca. 1.5%) :-) in diesem Zustand lässt sich md126 auf decrypten und mounten, Daten sind da. Sieht also alles gut aus. Reshape dauert noch ca. 3400 Minunten, also ca. 2,36 Tage ;-)
36. Raid Recreate DATA und DATA2 2016-01-19 nach neuer Platte rein im Betrieb :-(
DATA2 mit normalem mdadm
aa cvz 4 yqo
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=7 /dev/sdaa1 /dev/sdc1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1
DATA mdadm aus /builds/mdadm
esfl 4 drgi 8 mbkh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024
37. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung
DATA2 mit normalem mdadm
ab bw aa 4 zrpo 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1
DATA mdadm aus /builds/mdadm
dtfm 4 csgi 8 nalh 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdn1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024
38. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung
DATA2 mit normalem mdadm
aa bvz 4 yqon 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1
DATA mdadm aus /builds/mdadm
dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024
39. Raid Recreate DATA und DATA2 2016-07-23
DATA2 mit normalem mdadm
ab bw aa 4 zrpo 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1
DATA mdadm aus /builds/mdadm
dtfl 4 csgi 8 makh 12 vxqujy
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdj1:1024 /dev/sdy1:1024
40. Raid Recreate DATA und DATA2 2016-07-24
DATA2 mit normalem mdadm
ab cw aa 4 zrpo 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdc1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1
DATA mdadm aus /builds/mdadm
etgm 4 dshj 8 nbli 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdn1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024
41. Raid Recreate DATA und DATA2 2016-07-26
DATA2 mit normalem mdadm
aa bvz 4 yqon 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1
DATA mdadm aus /builds/mdadm
dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024
42. Raid Recreate DATA2 2016-08-11 SATA-KARTEN UMGEBAUT, NEUES SCRIPT
DATA2 mit normalem mdadm
mvhl 4 kcsn 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1
43. Raid Recreate NUR DATA2 2016-08-18 nach interupted DATA2 Raid6 Grow
Grow mdadm --grow --raid-devices=9 /dev/md126 --backup-file=/home/gagi/mda126backup
Dann ist bei ca. 45% das System gestallt (war heiß im Raum). Reboot -> md126 mit 9 Platten und clean, aber read-only und nicht mehr am Gown
DATA2 mit normalem mdadm
mvhl 4 kcsn
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1
Also nut mit 8 Devices -> FEHLER! und blöde Idee. cryptsetup LuksOpen geht zwar noch richtig, aber Filesystem-Fehler beim mounten
Neu dazu kam dann sdz1
Versuch von --update=revert-reshape
--assemble --update=revert-reshape" can be used to undo a reshape that has just been started but isn't really wanted. This is very new and while it passes basic tests it cannot be guaranteed. mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1
geht nicht, das 9. und neue Device sdz1 hat andere Superblock!
cryptsetup luksClose cr_md125
Nochmal createn mit 9, auch wenn 9. device sicher noch nicht richtig im Raid6 eingegrowt war. Allerdings könnte dann das Filesystem passen -> mount -> Daten da
lugk 4 jbrm 8 y
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdu1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdy1
mount: Einhängen von /dev/mapper/cr_md126 auf /data2 ist fehlgeschlagen: Die Struktur muss bereinigt werden
Besser, aber nochwas komisch. -> XFS-Check
xfs_repair /dev/mapper/cr_md126
Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 bad magic # 0xc76d91a7 in inode 32617927112 (Daten fork) bmbt block 6322787567 bad data fork in inode 32617927112 cleared inode 32617927112
Dann noch viele andere Fehler und einiges in lost&found (vor allem auch viel vom neuen Singstar-Song-Archiv, davon aber zum Glück noch Backup auf 750er ToughDrive vorhanden) ABER: md126 lässt sich mit crypt entschlüsseln UND danach auch mounten -> meisten Daten also wieder da!
nochmal stop und dann nochmal
mvhl 4 kcsn 8 z mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1
Klappt nicht! :-(
So wie ist gehts zwar das mounten, allerdings sind scheinbar viele Daten korrupt! :-(((
md126 stoppen
nur mit den ursprünglichen 8 devices baun
mvhl 4 kcsn
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1
xfs_repair
Viele Fehler -> ohoh :-(( -> Shit alles weg bis auf 3TB lost&found
WICHTIG: DER GANZE UNTERBROCHENE GROW-PROZESS WÄRE WAHRSCHEINLICH EINFACH NACH DEM MOUNTEN (!!!) NORMAL WEITERGELAUFEN!!
Nochmal mit 9 aber 9. fehlend
mvhl 4 kcsn 8 z
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 missing
-> geht auf und wird gemountet -> wieder einiges da -> xfs_repair (3x) -> dann keiner Fehler mehr erkannt -> Viele alten Daten wieder OK, neuere (so ab 19.9.2015) größtenteils korrupt :-(
9. devices wieder dazu -> wird neu eingebunden
44. Raid ReSync-Stop DATA 2016-11-01
Nach Hänger wollte DATA (schon noch clean) resynchen, was dann immer noch einiger Zeit (mehrere Stunden, ca. 50%) ohne log-Eintrag hängen blieb. Dies hat auch bei mehreren Anläufen (ca. 6 Stück) nicht geklappt.
Laufenden ReSync stoppen:
echo frozen > /sys/block/md125/md/sync_action
Gestoppten ReSync als Complete setzen:
echo none > /sys/block/md125/md/resync_start
Danach auch xfs-repair
xfs_repair /dev/mapper/cr_md125
Cronjob ausgeschalten für Auto-Sync einmal im Monat
45. Raid Recreate DATA und DATA2 2016-11-08
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
46. Raid Recreate DATA und DATA2 2016-12-05
DATA2 mit normalem mdadm
lwgk 4 jbsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
47. Raid Recreate DATA und DATA2 2017-02-07
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
48. Raid Recreate DATA und DATA2 2017-02-24
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
49. Raid Recreate DATA 2017-03-24
Vormittags Server ganz aus. Dann Nachmittags hochgefahren, dabei sind 2 Platten "hängen geblieben" -> Data mit 2 fehlenden Platten clean but degraded
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
50. Raid Recreate DATA und DATA2 2017-04-22
DATA2 mit normalem mdadm
lwgk 4 jbsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
51. Raid Recreate DATA und DATA2 2017-05-09 nach USV-Alarm und Shutdown
29 Platten insgesamt
DATA2 mit normalem mdadm
lvgk 4 jbrm 8 z
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1
DATA mdadm aus /builds/mdadm
xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
52. Raid Recreate DATA und DATA2 2017-05-12
29 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
53. Raid Recreate DATA und DATA2 2017-05-13
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
54. Raid Recreate DATA2 2017-05-19 nach Mailand
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
55. Raid Recreate DATA und DATA2 2017-05-21
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
56. Raid Recreate DATA und DATA2 2017-05-22
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
57. Raid Recreate DATA und DATA2 2017-05-26 Nach RöKo
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
58. Raid Recreate DATA und DATA2 2017-07-07 nach Zock
29 Platten insgesamt
DATA2 mit normalem mdadm
lvgk 4 jbrm 8 z
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1
DATA mdadm aus /builds/mdadm
xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
59. Raid Recreate DATA und DATA2 2017-08-11
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
60. Raid Recreate DATA und DATA2 2017-08-13
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
61. Raid Recreate DATA und DATA2 2017-08-16
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
62. Raid Recreate DATA und DATA2 2017-09-10 Nach Berlinfahrt
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
63. Raid Recreate DATA und DATA2 2017-09-11 Nach Berlinfahrt2
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
64. Raid Recreate DATA und DATA2 2017-10-15 schon mit neuer USV
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
65. Raid Recreate DATA und DATA2 2017-11-05
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
66. Raid Recreate DATA und DATA2 2017-11-07
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
67. Raid Recreate DATA und DATA2 2017-11-13
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
68. Raid Recreate DATA und DATA2 2017-11-19
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
69. Raid Recreate DATA und DATA2 2017-12-07
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
70. Raid Recreate DATA und DATA2 2017-12-22
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
71. Raid Recreate DATA und DATA2 2017-12-27
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kdsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdd1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zc aa q 4 yev ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdc1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
72. Raid Recreate DATA und DATA2 2018-01-04
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
73. Raid Recreate DATA und DATA2 2018-01-06 nach 40er Zock
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
74. Raid Recreate DATA und DATA2 2018-01-15 Nach Besuch Alex, Kammertür zu
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
75. Raid Recreate DATA und DATA2 2018-01-19
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbrm 8 ab t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1
DATA mdadm aus /builds/mdadm
zd aa p 4 ycv ad 8 qwo ac 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdp1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdq1:1024 /dev/sdw1:1024 /dev/sdo1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
76. Raid Recreate DATA und DATA2 2018-01-21
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
77. Raid Recreate DATA und DATA2 2018-01-24
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
78. Raid Recreate DATA und DATA2 2018-02-28
32 Platten insgesamt
DATA2 mit normalem mdadm
myhl 4 kcsn 8 ac ut
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdm1 /dev/sdy1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdac1 /dev/sdu1 /dev/sdt1
DATA mdadm aus /builds/mdadm
aa e ab q 4 zdv ae 8 rxp ad 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdaa1:1024 /dev/sde1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdae1:1024 /dev/sdr1:1024 /dev/sdx1:1024 /dev/sdp1:1024 /dev/sdad1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
79. Raid Recreate DATA und DATA2 2018-03-13 Arch->Debian
31 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbrm 8 ab ts
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1
DATA jetzt so auch mit Standard-mdadm, nicht mehr aus /builds/mdadm
zd aa p 4 ycu ad 8 qwo ac 12 fhaeni
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 --data-offset=1024 /dev/sdz1 /dev/sdd1 /dev/sdaa1 /dev/sdp1 /dev/sdy1 /dev/sdc1 /dev/sdu1 /dev/sdad1 /dev/sdq1 /dev/sdw1 /dev/sdo1 /dev/sdac1 /dev/sdf1 /dev/sdh1 /dev/sda1 /dev/sde1 /dev/sdn1 /dev/sdi1
80. Raid Recreate DATA2 2018-04-25 on Debian, md126 (Data2) sollte Grown
31 Platten insgesamt
DATA2 mit normalem mdadm
kygl 4 ibrm 8 ab ts
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdk1 /dev/sdy1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1
sdu1 ist HOTSPARE und sollte eigentlich als Device Nummer 12 reingegrowt werden
81. Raid Recreate DATA2 2018-08-29 on Debian, md126 (Data2) sollte Grown
33 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(
DATA2 mit normalem mdadm
kzgl 4 ibsm 8 ad utv
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=12 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1
Mit 13. Grow-Device
kzgl 4 ibsm 8 ad utv 12 ac
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=13 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1 /dev/sdac1
sdac1 ist HOTSPARE und sollte eigentlich als Device Nummer 13 reingegrowt werden
LÖSUNG: Keiner der beiden oberen Befehle ausgeführt
mdadm --stop /dev/md126
mdadm --assemble --scan
Damit wurde wieder alles richtig erkannt. Dann luksopen und mounten -> Daten sind da und Grow setzt fort :-)
82. Raid Recreate DATA2 2019-09-10 on Debian, md126 (Data2) sollte Grown
34 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(
DATA2 mit normalem mdadm
l aa hm 4 jbtn 8 ae vuw 12 ad r
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1
Das hab ich gemacht und war OK. Dann XFS-Check. Dann nochmal 15. Devices reingegrowt. Wieder ist der Reshape nicht losgelaufen.
Nach Reboot war das Array dann auch komisch (Raid0 statt Raid6 etc.). Deshalb wieder mdadm --stop /dev/md126
Dann nochmal create, aber OHNE --assume-clean -> Daten OK und da, aber Resync angelaufen
mdadm --create /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1
Re-Sync ist durchgelaufen. Dann nochmal sdf1 neu partioniert (fd00 RAID), nochmal bad-block check, XFS-Check, Reboot -> alles OK
Wieder grow gestartet, wieder 0kb/sec und direkt am Anfang hängen geblieben.
LÖSUNG: Maximale Sync-Geschwindigkeit setzen:
echo max > /sys/block/md127/md/sync_max
Damit ist der Reshape losgelaufen :-)
Dann nach ca. 21% Reshape Hänger. Hard-Reset; dann kam md127 also Raid0 etc. raus. Also automatischer Assemble-Scan hat nicht funktioniert, obwohl die 15 Einzelplatten beim --examine alle das richtige (Raid6, 1 Delta-Device etc.) angezeigt haben.
Dann dieses falsche Raid0 md127 gestoppt und NICHT neu created, sondern manuell assembled:
mdadm --assemble /dev/md126 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1
OK, hat geklappt. Dann luksOpen und mount, dann ging auch der Reshape wieder bei 21% weiter :-) ___________________________________________________________________________________________________ ___________________________________________________________________________________________________
FALLS NÖTIG, nicht gemacht: Mit 15. Grow-Device
l aa hm 4 jbtn 8 ae vuw 12 ad rf
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1
sdf1 ist HOTSPARE und sollte eigentlich als Device Nummer 15 reingegrowt werden
LÖSUNG von davor (Punkt 81. : 13 Devices in md126 reingegrowt) hat leider nicht funktioniert:
mdadm --stop /dev/md126 mdadm --assemble --scan
82. Raid Recreate DATA2 2021-10-29 on Debian, md126 (Data2) sollte Grown auf 20 Platten
41 Platten insgesamt
Grow-Befehl (VORSICHT: hat Backup-Datei nicht geschrieben, kürzen Filename verwenden und überprüfen!)
mdadm --grow --raid-devices=20 /dev/md126 --backup-file=/home/gagi/mda126backup_2021_10_29
Grow-Reshape lief los, stockte dann aber und ging nicht weiter.
echo max > /sys/block/md126/md/sync_max
hat leider nicht geholfen
mdadm --assemble --scan
geht zwar und erkennt auch das Delta-Device richtig (beim Booten selbständig nicht, erst mdadm --stop und dann assemble-scan), aber reshape bleibt dann immer wieder stehen.
echo frozen > /sys/block/md126/md/sync_action
nach dem assemble-scan, um reshape nicht sofort loslaufen zu lassen dann
xfs_repair /dev/mapper/cr_md126
md126 : active raid6 sdm1[0] sdt1[20] sdab1[19] sdae1[17] sds1[16] sdq1[15] sdg1[14] sdu1[13] sdak1[12] sdaa1[11] sdx1[10] sdy1[9] sdal1[8] sdo1[7] sdw1[6] sdb1[5] sdk1[4] sdn1[3] sdi1[2] sdag1[1]
49812285888 blocks super 1.2 level 6, 64k chunk, algorithm 2 [20/20] [UUUUUUUUUUUUUUUUUUUU]
resync=PENDING
bitmap: 1/22 pages [4KB], 65536KB chunk
Dann manuelles Neuzusammenbauen:
mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29
bringt
"mdadm: Reshape position is not suitably aligned. mdadm: Try normal assembly and stop again"
Dann also normal (also ohne revert-reshape):
mdadm --assemble /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29
baut zwar das Array auch zusammen (eigentlich genauso wie assmble-scan, auch mit Delta-Device), aber gleiches Problem mit nicht-durchlaufendem Reshape Dann also assemble ohne das Delta-Device also ohne das letzte /dev/sdt1:
"mdadm: backup file /home/gagi/mda126backup_2021_10_29 inaccessible: No such file or directory mdadm: /dev/md126 assembled from 19 drives - not enough to start the array while not clean - consider --force."
OK, dann also ein create mit nur den 19 Devices, um dann die 20te Platte nochmal neu dazu zu nehmen:
mdadm --create --assume-clean /dev/md126 --uuid=3fe35a06:a84c867c:69ea7e1c:2c808784 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1
LuksOpen findet nix!!! Dann nochmal create mit 20 Devices und letztes "missing": LuksOpen findet nix!!!
84. Raid Recreate DATA und DATA2 2022-09-24 on Debian, md127 (Data2) war schon gegrowt auf 21 Platten, 2 Spares neu dazu (Bad Mergentheim-Besuch)
43 Platten insgesamt
mehrere Platten von beides Raides waren im Betrieb disconnected -> beides Raids nicht mehr über --assemble --scan automatisch findbar,.
Manuelles Assemble:
mdadm --assemble /dev/md125 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1
Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben.
Manuelles Neuzusammenbauen md125:
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 --data-offset=1024 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1
-> GEHT! :-) -> md125 und DATA wieder da
Jetzt gehts an DATA2:
Manuelles Assemble:
mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1
mdadm: cannot open device missing: No such file or directory Manuelles Assemble mit Faulty device statt missing:
mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 /dev/sdu1 /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1
Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben: mdadm: /dev/md126 assembled from 13 drives - not enough to start the array.
Manuelles Neuzusammenbauen md126:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=21 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1
-> GEHT! :-) -> md126 und DATA2 wieder da Ein Missing device, da kommt jetzt eine der neuen Spares rein.
85. Raid Recreate DATA2 2023-02-27 on Debian, md126 (Data2) ist bei ca. 50% im Grow hängen geblieben
44 Platten insgesamt
20 im DATA (alles gut) Grow von 22 auf 23 in DATA2
DATA2 wird nicht nach Reboot richtig gefunden, sondern als Raid0 erkannt. stoppen -> manuelles assemble:
mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1
klappt auch, Delta-Device erkannt. Rebuild läuft natürlich erstmal nicht an, da noch nicht gemountet. Mount klappt aber nicht (!) 100% CPU dabei, aber kein Fortschritt beim Rebuild, der noch laufende Mount scheint den Rebuild (richtigerweise) erstmal zu blocken. xfs_check läuft nicht, da der sagt, müsste erst gemountet werden. Versuch Assemble ohne neues Delta-Device:
mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing
Geht nicht bei "nur" assemble mit "missing". Versuch ohne das Delta-Device (also erstmal wieder nur mit 22 Drives, wie vor dem Grow):
mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1
Macht er nicht mit der Fehlermeldung:
"mdadm: /dev/md126 assembled from 22 drives - not enough to start the array while not clean - consider --force."
Danach ist das komisch zusammengestellt: root@STORE2:/home/gagi# mdadm --detail /dev/md126 /dev/md126:
Version : 1.2
Raid Level : raid0
Total Devices : 18
Persistence : Superblock is persistent
State : inactive Working Devices : 18
Delta Devices : 1, (-1->0)
New Level : raid6
New Layout : left-symmetric
New Chunksize : 64K
Name : STORE2:126 (local to host STORE2)
UUID : 2d2a484e:b89df4cb:a63eca33:fe22bcc5
Events : 47096
Number Major Minor RaidDevice
- 65 1 - /dev/sdq1
- 8 1 - /dev/sda1
- 66 129 - /dev/sdao1
- 66 113 - /dev/sdan1
- 66 65 - /dev/sdak1
- 66 49 - /dev/sdaj1
- 66 17 - /dev/sdah1
- 65 225 - /dev/sdae1
- 65 209 - /dev/sdad1
- 65 177 - /dev/sdab1
- 65 161 - /dev/sdaa1
- 8 209 - /dev/sdn1
- 8 161 - /dev/sdk1
- 8 145 - /dev/sdj1
- 65 129 - /dev/sdy1
- 65 81 - /dev/sdv1
- 65 33 - /dev/sds1
- 8 33 - /dev/sdc1
Also wieder
mdadm --stop /dev/md126
Jetzt mit create aber OHNE missing, also nur für die alten 22 Drives:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=22 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1
OK, neues Array mit 22 Drives. Crypsetup klappt auch noch. Dann xfs_repair mit -n (keine Änderungen) -> findet keine Superblocks:
xfs_repair -n -v /dev/mapper/cr_md126
Phase 1 - find and verify superblock... bad primary superblock - bad magic number !!!
attempting to find secondary superblock... ..........................................
Mount funktioniert auch nicht (!!! :-( )
mount: /data2: wrong fs type, bad option, bad superblock on /dev/mapper/cr_md126, missing codepage or helper program, or other error.
Stoppen:
mdadm --stop /dev/md126 mdadm: Cannot get exclusive access to /dev/md126:Perhaps a running process, mounted filesystem or active volume group?
-> Reboot, dann klappt auch stoppen (direkt ohne vorher was anderes zu machen wie crypsetup oder so)
Jetzt mit create aber MIT missing, also für die neuen 23 Drives:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing
OK, geht, eine missing-device am Ende (logisch). xfs_check -n läuft aber zumindest mal los (also nicht mehr das superblock Problem) hat aber viele viele Fehler (!), die er aber wohl korrigieren würde/könnte (bisher nur simuliert, weil -n) Schlägt vorher Mounting vor wegen Journal-Einträgen usw.
mount /dev/mapper/cr_md126 /data2 mount: /data2: mount(2) system call failed: Structure needs cleaning.
Der Grow ist ja eben nur bis zur Hälfte durchgelaufen gewesen -> d.h. ein Array mit 23 Devices ist ja so (noch) nicht da gewesen (!) Wie kann man bei einem neu create eine halbes Delta-Device einbauen? Create mit SPARE drin und ohne --assume-clean -> evtl. wird Delta erkannt?
mdadm --create /dev/md127 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1
Ja, geht zwar, aber Delta nicht erkannt, ohne --assume-clean läuft dann ein resync an :-( Resync stoppen mit:
echo frozen > /sys/block/md127/md/sync_action
xfs_check läuft wieder an (keine Superblock-Probleme) hat aber wieder viele viele Fehler (Grow war halt nicht fertig). Mount geht auch wieder nicht :-(
mount: /data2: can't read superblock on /dev/mapper/cr_md126.
Dann nochmal das was noch am ehesten funktioniert hat:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing
Und dann mit einen echten xfs_check, läuft sehr lange und bringt sehr sehr viele Fehlermeldungen (halber Grow) -> abgebrochen
Bringt so leider alles nix, Daten futsch !!! :-( Raid neu bauen und dann Backups von diversen Einzelplatte und von DATA wieder mühsam einspielen :-( Create neu ohne assume-clean und dann Sync:
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1
Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126
Öffnen:
cryptsetup luksOpen /dev/md126 cr_md126
(XFS Filesystem drauf:, in diesem Falle nicht getan)
mkfs.xfs /dev/mapper/cr_md126
NEU: Wechsel auf Ext4:
mkfs.ext4 /dev/mapper/cr_md126
Damit dann checkbar über:
e2fsck -v /dev/mapper/cr_md126
Mounten:
mount /dev/mapper/cr_md126 /data2
___________________________
Theoretische Idee für vor dem create: mit revert-reshape und --backup-file (NICHT gemacht, da das mal zu Datenverlust geführt hat!)
mdadm --assemble --update=revert-reshape /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 --backup-file=/home/gagi/mda127backup2
86. Raid Recreate DATA und DATA2 2023-11-10, 14TB HDD bb-Test über Nacht
44 Platten insgesamt
DATA2 mit normalem mdadm
u an hv 4 z ad ac w 8 al ag oc 12 aj te ae 16 a am fy 20 lj ap
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdu1 /dev/sdan1 /dev/sdh1 /dev/sdv1 /dev/sdz1 /dev/sdad1 /dev/sdac1 /dev/sdw1 /dev/sdal1 /dev/sdag1 /dev/sdo1 /dev/sdc1 /dev/sdaj1 /dev/sdt1 /dev/sde1 /dev/sdae1 /dev/sda1 /dev/sdam1 /dev/sdf1 /dev/sdy1 /dev/sdl1 /dev/sdj1 /dev/sdap1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
DATA mit normalem mdadm und offset
ai pnd 4 ah sk aq 8 b aa x ao 12 girq 16 m ak ab af 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdai1 /dev/sdp1 /dev/sdn1 /dev/sdd1 /dev/sdah1 /dev/sds1 /dev/sdk1 /dev/sdaq1 /dev/sdb1 /dev/sdaa1 /dev/sdx1 /dev/sdao1 /dev/sdg1 /dev/sdi1 /dev/sdr1 /dev/sdq1 /dev/sdm1 /dev/sdak1 /dev/sdab1 /dev/sdaf1
87. Raid Recreate DATA und DATA2 2024-04-30, Copy-Job von Myth, vielen Platten fielen raus
44 Platten insgesamt
DATA2 mit normalem mdadm
m af es 4 o ao xu 8 an ac y ah 12 ak lb w 16 n ad ae v 20 ci am
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdm1 /dev/sdaf1 /dev/sde1 /dev/sds1 /dev/sdo1 /dev/sdao1 /dev/sdx1 /dev/sdu1 /dev/sdan1 /dev/sdac1 /dev/sdy1 /dev/sdah1 /dev/sdak1 /dev/sdl1 /dev/sdb1 /dev/sdw1 /dev/sdn1 /dev/sdad1 /dev/sdae1 /dev/sdv1 /dev/sdc1 /dev/sdi1 /dev/sdam1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
DATA mit normalem mdadm und offset
ar jkz 4 aj h aa al 8 f ag r ap 12 dgpa 16 t ai q ab 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdar1 /dev/sdj1 /dev/sdk1 /dev/sdz1 /dev/sdaj1 /dev/sdh1 /dev/sdaa1 /dev/sdal1 /dev/sdf1 /dev/sdag1 /dev/sdr1 /dev/sdap1 /dev/sdd1 /dev/sdg1 /dev/sdp1 /dev/sda1 /dev/sdt1 /dev/sdai1 /dev/sdq1 /dev/sdab1
88. Raid Recreate DATA und DATA2 2024-05-08, einfach so, viele Platten fallen raus
44 Platten insgesamt
DATA2 mit normalem mdadm
t ae ku 4 aa an qc 8 al z y am 12 ai lof 16 n ac vm 20 as aj
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdt1 /dev/sdae1 /dev/sdk1 /dev/sdu1 /dev/sdaa1 /dev/sdan1 /dev/sdq1 /dev/sdc1 /dev/sdal1 /dev/sdz1 /dev/sdy1 /dev/sdam1 /dev/sdai1 /dev/sdl1 /dev/sdo1 /dev/sdf1 /dev/sdn1 /dev/sdac1 /dev/sdv1 /dev/sdm1 /dev/sda1 /dev/sds1 /dev/sdaj1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
DATA mit normalem mdadm und offset
ak j ab ah 4 ag h af ap 8 g ad e ao 12 rpdb 16 i aq w x 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdj1 /dev/sdab1 /dev/sdah1 /dev/sdag1 /dev/sdh1 /dev/sdaf1 /dev/sdap1 /dev/sdg1 /dev/sdad1 /dev/sde1 /dev/sdao1 /dev/sdr1 /dev/sdp1 /dev/sdd1 /dev/sdb1 /dev/sdi1 /dev/sdaq1 /dev/sdw1 /dev/sdx1
89. Raid Recreate DATA und DATA2 2024-05-25, einfach so, viele Platten fallen raus
44 Platten insgesamt
DATA2 mit normalem mdadm
b ah nc 4 q ai vw 8 ao aa x ab 12 al mgt 16 a an ag e 20 hp am
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdb1 /dev/sdah1 /dev/sdn1 /dev/sdc1 /dev/sdq1 /dev/sdai1 /dev/sdv1 /dev/sdw1 /dev/sdao1 /dev/sdaa1 /dev/sdx1 /dev/sdab1 /dev/sdal1 /dev/sdm1 /dev/sdg1 /dev/sdt1 /dev/sda1 /dev/sdan1 /dev/sdag1 /dev/sde1 /dev/sdh1 /dev/sdp1 /dev/sdam1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
DATA mit normalem mdadm und offset
ak ldz 4 aj o ac aq 8 i ae y ap 12 frjk 16 s ad u af 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdl1 /dev/sdd1 /dev/sdz1 /dev/sdaj1 /dev/sdo1 /dev/sdac1 /dev/sdaq1 /dev/sdi1 /dev/sdae1 /dev/sdy1 /dev/sdap1 /dev/sdf1 /dev/sdr1 /dev/sdj1 /dev/sdk1 /dev/sds1 /dev/sdad1 /dev/sdu1 /dev/sdaf1
90. Raid Recreate DATA und DATA2 2024-10-09, einfach so, viele Platten fallen raus
44 Platten insgesamt
beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.
DATA2 mit normalem mdadm
r ah dq 4 o ai xu 8 ap aa z ac 12 al icw 16 k ag ad e 20 ap ao
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdr1 /dev/sdah1 /dev/sdd1 /dev/sdq1 /dev/sdo1 /dev/sdai1 /dev/sdx1 /dev/sdu1 /dev/sdap1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdi1 /dev/sdc1 /dev/sdw1 /dev/sdk1 /dev/sdag1 /dev/sdad1 /dev/sde1 /dev/sda1 /dev/sdp1 /dev/sdao1
ist ja jetzt EXT4 statt XFS, d.h. checken geht mit:
e2fsck -v /dev/mapper/cr_md126
DATA mit normalem mdadm und offset
ak gs ab 4 aj h ae ar 8 j aq v am 12 bmlf 16 n af t y 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdak1 /dev/sdg1 /dev/sds1 /dev/sdab1 /dev/sdaj1 /dev/sdh1 /dev/sdae1 /dev/sdar1 /dev/sdj1 /dev/sdaq1 /dev/sdv1 /dev/sdam1 /dev/sdb1 /dev/sdm1 /dev/sdl1 /dev/sdf1 /dev/sdn1 /dev/sdaf1 /dev/sdt1 /dev/sdy1
91. Raid Recreate DATA und DATA2 2024-10-09-II, einfach so, viele Platten fallen raus, Wechsel auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1
44 Platten insgesamt
beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.
Umstellung auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1
udevadm info --query=all --name=/dev/sdi | grep disk/by-id/ata
Eintragungen in disknum.txt und im Wiki ergänzt
DATA2 mit normalem mdadm
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
DATA mit normalem mdadm und offset
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG25Z6A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1
92. Raid Recreate DATA und DATA2 2025-07-16, einfach so, viele Platten fallen raus, Wechsel auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1
44 Platten insgesamt
beide waren noch als Raid6 erkannt und mit Platten drin, aber warum zum Teil die falschen Platten und vor allem hatten die keine Platzzuordnung mehr.
Umstellung auf Identifikation nach disk/by-id anstatt der wechselnden Laufwerksbezeichnungen wie sda1
udevadm info --query=all --name=/dev/sdi | grep disk/by-id/ata
Eintragungen in disknum.txt und im Wiki ergänzt
DATA2 mit normalem mdadm -> passt so
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00AZ6B0_WD-WCC070299387-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
DATA mit normalem mdadm und offset -> eine Platte anders als bei 91., da diese dazwischen getauscht wurde (8. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1
93. 2025-08-31 Raid Baubefehl noch data2 rebuild wegen HDD-Tausch mit disk/by-id

44 Platten insgesamt
Eintragungen in disknum.txt und im Wiki ergänzt
DATA2 mit normalem mdadm -> passt so
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCE9215Q0AUYTW-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030BLE630_MCM9215Q0B9LSY-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ0351YNGA02YA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K5THL257-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG09EDA-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHAWE09-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L359DL-part1 /dev/disk/by-id/ata-WDC_WD30EZRX-00D8PB0_WD-WMC4N0L7H2HV-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW633NRC-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N6EVNFZ5-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N1ZY6VVY-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K0SNC8T6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N7CXVHLU-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG4J48A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3CHNN7K-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5DZ1CEU-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60B6RZ-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4NHKFN0-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDH906SD-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7821M-part1 /dev/disk/by-id/ata-ST4000VN008-2DR166_ZDHBBDY5-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CK42-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW60CTY3-part1
DATA mit normalem mdadm und offset -> eine Platte anders als bei 92., da diese dazwischen getauscht wurde (43. Position /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 ist anders/Neu) !
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3WZVA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SYKA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K7VCRJZT-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2DJ9XL8-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG38VGA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3Y4SA-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0RC60LS-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_ZW60FC09-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3RM5A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NT5A-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JL6DSL-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3NZ3A-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3UUPA-part1 /dev/disk/by-id/ata-Hitachi_HDS5C3030ALA630_MJ1311YNG3SAMA-part1 /dev/disk/by-id/ata-TOSHIBA_DT01ABA300_234BGY0GS-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZGY7743F-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHB5RY6-part1 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2JPEN1D-part1 /dev/disk/by-id/ata-ST3000VN007-2AH16M_ZDHA9E6A-part1 /dev/disk/by-id/ata-ST4000VN006-3CW104_WW6078X8-part1
Spare-Group einrichten
aktuelle Config in mdadm.conf schreiben
mdadm -D -s >> /etc/mdadm.conf
spare-group ergänzen
nano /etc/mdadm.conf
ganz unten spare-group=shared ergänzen
ARRAY /dev/md/126 metadata=1.2 spares=1 name=store2:126 UUID=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx spare-group=shared
Raid-Baustatus
cat /proc/mdstat
automatisch jede Sekunde aktualisiert
watch -n 1 cat /proc/mdstat
Verschlüssel von Hand (ohne Yast2)
Verschlüsseln:
cryptsetup -v --key-size 256 luksFormat /dev/md125
Mit speziellen Paramtern für Hardware-Verschlüsselung:
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md125
Öffnen:
cryptsetup luksOpen /dev/md125 cr_md125
Filesystem drauf:
mkfs.xfs /dev/mapper/cr_md125
store2:~ # mkfs.xfs /dev/mapper/cr_md125
meta-data=/dev/mapper/cr_md125 isize=256 agcount=36, agsize=268435424 blks
= sectsz=512 attr=2, projid32bit=0
data = bsize=4096 blocks=9523357168, imaxpct=5
= sunit=16 swidth=208 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal log bsize=4096 blocks=521728, version=2
= sectsz=512 sunit=16 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
root@STORE2:/dev/mapper# mkfs.xfs -f /dev/mapper/cr_md126
meta-data=/dev/mapper/cr_md126 isize=512 agcount=47, agsize=268435424 blks
= sectsz=4096 attr=2, projid32bit=1
= crc=1 finobt=1, sparse=1, rmapbt=0
= reflink=0
data = bsize=4096 blocks=12453071184, imaxpct=5
= sunit=16 swidth=272 blks
naming =version 2 bsize=4096 ascii-ci=0, ftype=1
log =internal log bsize=4096 blocks=521728, version=2
= sectsz=4096 sunit=1 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
Status:
cryptsetup luksDump /dev/md125
Grown
Festplatte vorbereiten
Open gdisk with the first hard drive:
$ gdisk /dev/sda
and type the following commands at the prompt:
Add a new partition: n Select the default partition number: Enter Use the default for the first sector: Enter For sda1 and sda2 type the appropriate size in MB (i.e. +100MB and +2048M). For sda3 just hit Enter to select the remainder of the disk. Select Linux RAID as the partition type: fd00 Write the table to disk and exit: w
Bad Blocks
Screen-Umgebung starten
screen -S bb
badblocks -vs -o sdy-badblock-test /dev/sdy
bzw. bei sehr großen Platten (>8TB) noch mit dieser Option
badblocks -vs -b4096 -o 14badblock-test /dev/sdau
verbose, show progress, output-file (log) badblocks sucht nur nach bad blocks, zerstört aber keine Daten.
Detach
Strg-a d = detach
Reatach
screen -r bb
ODER Wieder reingehen
screen -x bb
Falls nötig, Hot Spare aus Raid rausnehmen
mdadm --remove /dev/md125 /dev/sdn1
Device zum Raid hinzufügen
mdadm --add /dev/md126 /dev/sdf1
Raid reshapen mit zusätzlichem Device (dauert ca. 3 volle Tage)
mdadm --grow --raid-devices=15 /dev/md126 --backup-file=/home/gagi/mda126backup
Set Faulty
mdadm --manage --set-faulty /dev/md126 /dev/sdj1
um zu sehen, wer/was gerade Zugriff nimmt:
lsof /data
Samba-Service beenden:
rcsmb stop systemctl stop smbd.service
Unmounten:
umount /data
XFS (Data)
XFS checken (ungemountet)
xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126
eigentlich einfach
xfs_repair /dev/mapper/cr_md126
Cryptcontainer wachsen
cryptsetup --verbose resize cr_md126
Mounten:
mount /dev/mapper/cr_md126 /data2
XFS vergrößern
xfs_growfs /data2
XFS checken (ungemountet)
xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126
Read-Only Mounten:
mount -o ro /dev/mapper/cr_md126 /data2
Samba-Freigabe
There's a bug in Samba in openSuse 11.4. Here's the workaround:
go to Yast --> AppArmor --> Control Panel (on) --> Configure Profile Modes --> usr.sbin.smbd = complain go to Yast --> system --> runlevels --> smb=on + nmb=on reboot
Direkte Netwerkverbindung Store1 <-> Store 2.0
du kannst auch mal schauen was in /etc/udev/rules.d/70-persistent-net... (oder wie auch immer die date heißt) steht.
da wird die mac einer bestimmten netzwerkadresse (eth0, eth1, ...) zugewiesen.
die datei kannst du auch löschen oder verschieben - wird beim neustart neu angelegt.
da kommt machmal was durcheinander - bei 'nem kernelupdate oder bios-update.
GEHT ! unterschiedliche subnets (192.168.2.100 und 192.168.2.102)
Fast-Copy
1.) Empfänger (Store2.0)
cd <Zielverzeichnis> netcat -l -p 4323 | gunzip | cpio -i -d -m
2.) Sender (Store)
cd <Quellverzeichnis> find . -type f | cpio -p | gzip -1 | netcat 192.168.2.102 4323
1.) Empfänger (Store2.0)
socat tcp4-listen:4323 stdout | tar xvpf - /data/eBooks
2.) Sender (Store)
tar cvf - /data/eBooks | socat stdin tcp4:192.168.2.102:4323
Test mit Fortschrittsanzeige bei bekannter Datengröße:
1.) Empfänger (Store2.0)
cd <Zielverzeichnis> socat tcp4-listen:4323 stdout | pv -s 93G | tar xvpf -
2.) Sender (Store)
cd <Quellverzeichnis> tar cvf - * | pv -s 93G | socat stdin tcp4:192.168.2.102:4323
dd if=/dev/sdl | bar -s 1.5T | dd of=/dev/sdw
FileBot Renamer Linux
filebot -rename -get-subtitles -non-strict /data/Downloads/Fertig/ --output /data/Downloads/Fertig/FileBot/ --format "{n}/Season {s}/{n}.{s00e00}.{t}" --db TheTVDB
filebot -get-missing-subtitles -non-strict -r --lang en /data/Downloads/Fertig/FileBot/
filebot -script fn:replace --conflict override --def "e=.eng.srt" "r=.srt" /data/Downloads/Fertig/FileBot/
RemoteDesktop ArchLinux Client
z.B. auf Busfahrer: rdesktop -g 1440x900 -P -z -x l -r sound:off -u gagi 192.168.1.149
Backplane-Rotation zur Fehlerdiagnose
Urzustand mit 24 Platten 2013-11-12
/dev/sdx -> 00 : 00000000000000 (1TB) 31��C /dev/sdp -> 01 : WD-WCC070299387 (3TB WD) 31��C /dev/sdq -> 03 : MJ1311YNG3SSLA (3TB) 33��C /dev/sdr -> 05 : MJ1311YNG3NZ3A (3TB) 32��C /dev/sds -> 07 : MJ1311YNG4J48A (3TB) 32��C /dev/sdt -> 09 : MJ1311YNG3UUPA (3TB) 33��C /dev/sdu -> 11 : MJ1311YNG3SAMA (3TB) 32��C /dev/sdv -> 13 : MJ1311YNG3SU1A (3TB) 34��C /dev/sdw -> 15 : MCE9215Q0AUYTW (3TB Toshiba neu) 31��C /dev/sdh -> 16 : MJ0351YNGA02YA (3TB) nicht im Einsatz, bb-check 2013-08-28 37��C /dev/sdi -> 18 : MJ1311YNG3Y4SA (3TB) 40��C /dev/sdj -> 20 : WD-WCAWZ1881335 (3TB WD) hot spare 38��C /dev/sdk -> 22 : WD-WCAWZ2279670 (3TB WD) 41��C /dev/sdl -> 24 : MJ1311YNG25Z6A (3TB) 39��C /dev/sdm -> 26 : MJ1311YNG3RM5A (3TB) 39��C /dev/sdn -> 28 : MJ1311YNG3NT5A (3TB) 40��C /dev/sdo -> 30 : MCM9215Q0B9LSY (3TB Toshiba neu) 38��C /dev/sda -> 31 : 234BGY0GS (3TB Toshiba neu) 40��C /dev/sdb -> 33 : MJ1311YNG3WZVA (3TB) 43��C /dev/sdc -> 35 : MJ1311YNG3SYKA (3TB) 42��C /dev/sdd -> 37 : WD-WCC070198169 (3TB WD) 41��C /dev/sde -> 39 : MJ1311YNG3RZTA (3TB) 39��C /dev/sdf -> 41 : MJ1311YNG3LTRA (3TB) 39��C /dev/sdg -> 43 : MJ1311YNG38VGA (3TB) 39��C Insgesamt 24 Platten gefunden.
Crashes
ArchLinux 2011-09-09
Sep 9 18:20:04 localhost kernel: [156439.479947] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.480035] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.486612] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.503656] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.504562] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:34:11 localhost -- MARK -- Sep 9 18:42:42 localhost kernel: [157797.911330] r8169: eth0: link up Sep 9 18:54:11 localhost -- MARK -- Sep 9 19:14:11 localhost -- MARK -- Sep 9 19:34:11 localhost -- MARK -- Sep 9 19:54:11 localhost -- MARK -- Sep 9 20:14:11 localhost -- MARK -- Sep 9 20:27:32 localhost kernel: [164086.971566] r8169: eth0: link up Sep 9 20:27:42 localhost kernel: [164097.580071] r8169: eth0: link up Sep 9 20:27:50 localhost kernel: [164105.391755] r8169: eth0: link up Sep 9 20:27:51 localhost kernel: [164106.272019] r8169: eth0: link up Sep 9 20:28:12 localhost kernel: [164127.150062] r8169: eth0: link up Sep 9 20:28:22 localhost kernel: [164137.941304] r8169: eth0: link up Sep 9 20:28:33 localhost kernel: [164148.890097] r8169: eth0: link up Sep 9 20:28:38 localhost kernel: [164153.080536] r8169: eth0: link up Sep 9 20:28:58 localhost kernel: [164173.790064] r8169: eth0: link up Sep 9 20:42:19 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Sep 9 20:42:19 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu Sep 9 20:42:19 localhost kernel: [ 0.000000] Linux version 2.6.32-lts (tobias@T-POWA-LX) (gcc version 4.6.1 20110819 (prerelease) (GCC) ) #1 SMP Tue Aug 30 08:59:44 CEST 2011 Sep 9 20:42:19 localhost kernel: [ 0.000000] Command line: root=/dev/disk/by-uuid/ba47ea9a-c24c-4dc6-a9a2-ca3b442bdbfc ro vga=0x31B Sep 9 20:42:19 localhost kernel: [ 0.000000] KERNEL supported cpus: Sep 9 20:42:19 localhost kernel: [ 0.000000] Intel GenuineIntel Sep 9 20:42:19 localhost kernel: [ 0.000000] AMD AuthenticAMD Sep 9 20:42:19 localhost kernel: [ 0.000000] Centaur CentaurHauls
OpenSuse 2011-09-26
Sep 26 23:15:59 store2 su: (to nobody) root on none Sep 26 23:17:17 su: last message repeated 2 times Sep 26 23:25:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 162 Sep 26 23:25:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166 Sep 26 23:25:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166 Sep 26 23:25:36 store2 smartd[4617]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166 Sep 26 23:25:37 store2 smartd[4617]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187 Sep 26 23:55:22 store2 smartd[4617]: Device: /dev/sdb [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 96 Sep 26 23:55:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 166 Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171 Sep 26 23:55:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171 Sep 26 23:55:32 store2 smartd[4617]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 98 Sep 27 00:55:26 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.
OpenSuse2011-09-27
Sep 27 16:35:17 store2 smbd[29588]: [2011/09/27 16:35:17.391212, 0] param/loadparm.c:8445(check_usershare_stat) Sep 27 16:35:17 store2 smbd[29588]: check_usershare_stat: file /var/lib/samba/usershares/ owned by uid 0 is not a regular file Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795153, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795341, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795323, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:44:06 store2 smbd[29163]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795368, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:44:06 store2 smbd[29163]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795422, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:44:06 store2 smbd[29597]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:44:06 store2 smbd[29597]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795468, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:44:06 store2 smbd[29592]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:44:06 store2 smbd[29592]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499038, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499082, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499174, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499174, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:45:42 store2 smbd[29593]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:45:42 store2 smbd[29585]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:45:42 store2 smbd[29593]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:45:42 store2 smbd[29585]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 19:35:14 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.
OpenSuse 2011-09-29
während kräftigem Copyjob von Store
Sep 29 23:16:19 su: last message repeated 2 times Sep 29 23:28:41 store2 smartd[4624]: Device: /dev/sdb [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 29 23:28:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 153 to 157 Sep 29 23:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 29 23:28:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 Sep 29 23:28:57 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Sep 29 23:58:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 29 23:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 29 23:58:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 29 23:58:57 store2 smartd[4624]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193 Sep 29 23:58:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176 Sep 29 23:59:02 store2 smartd[4624]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Sep 30 00:28:41 store2 smartd[4624]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193 Sep 30 00:28:43 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 00:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 00:28:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Sep 30 00:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 00:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 00:58:59 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 30 01:28:50 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 01:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 Sep 30 01:59:00 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:28:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 30 02:28:48 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 02:28:52 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 Sep 30 02:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 09:39:22 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.
What you are seeing are the Normalized Attribute values changing.
For example when the Raw_Read_Error_Rate changed from 99 to 100, the increase in Normalized value from 99 to 100 means that the disk now thinks it is a bit LESS likely to fail than before, because this Normalized value is moving further above the (low) Threshold value.
ArchLinux 2011-10-17
Oct 17 21:21:35 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176 Oct 17 21:21:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176 Oct 17 21:21:45 localhost smartd[1941]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206 Oct 17 21:30:03 localhost -- MARK -- Oct 17 21:50:03 localhost -- MARK -- Oct 17 21:51:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Oct 17 21:51:41 localhost smartd[1941]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187 Oct 17 22:10:03 localhost -- MARK -- Oct 17 22:21:34 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Oct 17 22:21:47 localhost smartd[1941]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214 Oct 17 22:21:49 localhost smartd[1941]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214 Oct 17 22:30:03 localhost -- MARK -- Oct 17 22:50:03 localhost -- MARK -- Oct 17 23:11:18 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Oct 17 23:11:18 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu
ArchLinux 2011-11-06
Nov 6 12:39:05 localhost -- MARK -- Nov 6 12:42:18 localhost smartd[1927]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 200 Nov 6 12:42:20 localhost smartd[1927]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 187 Nov 6 12:42:24 localhost smartd[1927]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 222 to 214 Nov 6 12:42:25 localhost smartd[1927]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 222 Nov 6 12:42:26 localhost smartd[1927]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 214 to 222 Nov 6 12:59:05 localhost -- MARK -- Nov 6 14:29:21 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Nov 6 14:29:21 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu Nov 6 14:29:21 localhost kernel: [ 0.000000] Linux version 3.0-ARCH (tobias@T-POWA-LX) (gcc version 4.6.1 20110819 (prerelease) (GCC) ) #1 SMP PREEMPT Wed Oct$ Nov 6 14:29:21 localhost kernel: [ 0.000000] Command line: root=/dev/disk/by-id/ata-Hitachi_HCS5C1016CLA382_JC0150HT0J7TPC-part3 ro Nov 6 14:29:21 localhost kernel: [ 0.000000] BIOS-provided physical RAM map:
EINFACH SO!
ArchLinux 2011-11-21
Dabei war vorher ein Systemupdate gelaufen (inklusive neuem Kernel), aber noch nicht rebootet.
Nov 21 09:30:27 localhost smartd[2208]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206 Nov 21 09:30:30 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250 Nov 21 09:30:31 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240 Nov 21 09:30:35 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 240 Nov 21 09:43:32 localhost kernel: [1280595.864622] ------------[ cut here ]------------ Nov 21 09:43:32 localhost kernel: [1280595.864636] WARNING: at drivers/gpu/drm/i915/i915_irq.c:649 ironlake_irq_handler+0x1102/0x1110 [i915]() Nov 21 09:43:32 localhost kernel: [1280595.864638] Hardware name: H61M-S2V-B3 Nov 21 09:43:32 localhost kernel: [1280595.864639] Missed a PM interrupt Nov 21 09:43:32 localhost kernel: [1280595.864640] Modules linked in: xfs sha256_generic dm_crypt dm_mod raid456 async_raid6_recov async_pq raid6_pq async_xor xor async_memcpy async_tx md_mod coretemp nfsd exportfs nfs lockd fscache auth_rpcgss nfs_acl sunrpc ipv6 ext2 sr_mod cdrom snd_hda_codec_realtek usb_storage uas sg evdev snd_hda_intel snd_hda_codec iTCO_wdt snd_hwdep snd_pcm snd_timer i915 snd drm_kms_helper drm pcspkr i2c_algo_bit r8169 ppdev i2c_i801 shp chp parport_pc intel_agp i2c_core pci_hotplug parport intel_gtt mei(C) soundcore snd_page_alloc processor button mii iTCO_vendor_support video aesni_intel cryptd aes_x86_64 aes_generic ext4 mbcache jbd2 crc16 usbhid hid sd_mod sata_sil24 ahci libahci libata scsi_mod ehci_hcd usbcore Nov 21 09:43:32 localhost kernel: [1280595.864674] Pid: 0, comm: swapper Tainted: G C 3.0-ARCH #1 Nov 21 09:43:32 localhost kernel: [1280595.864675] Call Trace: Nov 21 09:43:32 localhost kernel: [1280595.864676] <IRQ> [<ffffffff8105c76f>] warn_slowpath_common+0x7f/0xc0 Nov 21 09:43:32 localhost kernel: [1280595.864684] [<ffffffff8105c866>] warn_slowpath_fmt+0x46/0x50 Nov 21 09:43:32 localhost kernel: [1280595.864688] [<ffffffff81078f7d>] ? queue_work+0x5d/0x70 Nov 21 09:43:32 localhost kernel: [1280595.864693] [<ffffffffa0235a22>] ironlake_irq_handler+0x1102/0x1110 [i915] Nov 21 09:43:32 localhost kernel: [1280595.864696] [<ffffffff812a4bc5>] ? dma_issue_pending_all+0x95/0xa0 Nov 21 09:43:32 localhost kernel: [1280595.864699] [<ffffffff81333db1>] ? net_rx_action+0x131/0x300 Nov 21 09:43:32 localhost kernel: [1280595.864702] [<ffffffff810bf835>] handle_irq_event_percpu+0x75/0x2a0 Nov 21 09:43:32 localhost kernel: [1280595.864705] [<ffffffff810bfaa5>] handle_irq_event+0x45/0x70 Nov 21 09:43:32 localhost kernel: [1280595.864707] [<ffffffff810c21af>] handle_edge_irq+0x6f/0x120 Nov 21 09:43:32 localhost kernel: [1280595.864710] [<ffffffff8100d9f2>] handle_irq+0x22/0x40 Nov 21 09:43:32 localhost kernel: [1280595.864712] [<ffffffff813f66aa>] do_IRQ+0x5a/0xe0 Nov 21 09:43:32 localhost kernel: [1280595.864715] [<ffffffff813f4393>] common_interrupt+0x13/0x13 Nov 21 09:43:32 localhost kernel: [1280595.864716] <EOI> [<ffffffff81273cdb>] ? intel_idle+0xcb/0x120 Nov 21 09:43:32 localhost kernel: [1280595.864720] [<ffffffff81273cbd>] ? intel_idle+0xad/0x120 Nov 21 09:43:32 localhost kernel: [1280595.864723] [<ffffffff81313d9d>] cpuidle_idle_call+0x9d/0x350 Nov 21 09:43:32 localhost kernel: [1280595.864726] [<ffffffff8100a21a>] cpu_idle+0xba/0x100 Nov 21 09:43:32 localhost kernel: [1280595.864729] [<ffffffff813d1eb2>] rest_init+0x96/0xa4 Nov 21 09:43:32 localhost kernel: [1280595.864731] [<ffffffff81748c23>] start_kernel+0x3de/0x3eb Nov 21 09:43:32 localhost kernel: [1280595.864733] [<ffffffff81748347>] x86_64_start_reservations+0x132/0x136 Nov 21 09:43:32 localhost kernel: [1280595.864735] [<ffffffff81748140>] ? early_idt_handlers+0x140/0x140 Nov 21 09:43:32 localhost kernel: [1280595.864737] [<ffffffff8174844d>] x86_64_start_kernel+0x102/0x111 Nov 21 09:43:32 localhost kernel: [1280595.864738] ---[ end trace 01037f4ec3ec4ee5 ]--- Nov 21 10:00:16 localhost smartd[2208]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200 Nov 21 10:00:18 localhost smartd[2208]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 193 Nov 21 10:00:19 localhost smartd[2208]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200 Nov 21 10:00:23 localhost smartd[2208]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200 Nov 21 10:00:29 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240 Nov 21 10:00:30 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250 Nov 21 10:00:33 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 230 Nov 21 10:00:34 localhost smartd[2208]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250 Nov 21 11:52:01 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Nov 21 11:52:01 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu