Store 2.0
STABILITÄT Store 2.0
Vermutung: Die drei SATA-Erweiterungskarten crashen gelegentlich das komplette System.
Karten:
http://www.sybausa.com/productInfo.php?iid=537
Syba SY-PEX40008 4-port SATA II PCI-e Software RAID Controller Card--Bundle with Low Profile Bracket, SIL3124 Chipset Sind die identischen Karten, die immer noch von Backblaze verbaut werden (Pod 2.0 UND Pod 3.0!) Hängen an drei PCI-E 1x (kleiner Port)
RAID bliebt heile (zum Glück!), da die Karten dann komplett die Zugriff sperren.
Arch-Log files haben gar keine Einträge zu den Crashs!!!
Remote-Log über Syslogd (über Myth) zeigt als letzten Eintrag:
mdadm: sending ioctl 1261 to a partition (buggy Eintrag, aber unkritisch) sata_sil24: IRQ status == 0xffffffff, PCI fault or device removal
sata-sil24:
https://ata.wiki.kernel.org/index.php/Sata_sil24
Spurious interrupts are expected on SiI3124 suffering from IRQ loss erratum on PCI-X
PATCH?
http://old.nabble.com/-PATCH-06-13--sata_sil24%3A-implement-loss-of-completion-interrupt-on-PCI-X-errta-fix-p3799674.html
Thread über Zugang mit SIL3124 Chip
http://www.linuxquestions.org/questions/linux-kernel-70/how-to-access-sata-drives-attached-to-sii3124-719408/
Test?
http://marc.info/?l=linux-ide&m=127228317404771&w=2
Raid nach Booten öffnen und mount
Um Auto-Assembly beim Booten zu verhindern muss die Config-Datei /etc/mdadm.conf leer (oder zumindest komplett auskommentiert sein) und "MDADM_SCAN=no" in /etc/sysconfig/mdadm
1.) Checken ob alle Platten da sind:
/usr/local/bin/ds.sh
Müssen im Moment 17 Platten sein. Basis ist die Datei disknum.txt unter /root/bin
2.) Raids suchen und assemblen (kein Autostart):
mdadm --assemble --scan
3.) Cryptsetup:
cryptsetup luksOpen /dev/md125 cr_md125
4.) Mounten:
mount /dev/mapper/cr_md125 /data
Schliessen wäre:
cryptsetup luksClose cr_md125
JD2
java -Xmx512m -jar /home/gagi/jd2/JDownloader.jar
bzw in /home/gagi/jd2/
./JDownloader2
VNC
dergagi.selfhost.bz:5901
NextCloud
Anleitung überhaupt
https://www.howtoforge.de/anleitung/wie-man-nextcloud-unter-debian-10-installiert/
DuckDNS und Letsencrypt
https://www.edvpfau.de/wildcard-zertifikat-mit-duckdns-erstellen/
1. Wildcard Zertifikat holen:
certbot --server https://acme-v02.api.letsencrypt.org/directory -d *.dergagi9.duckdns.org --manual --preferred-challenges dns-01 certonly
Einmal "Y" drücken und dann offen lassen für später
2. Secret setzen, dabei Token von DuckDNS-Account verwenden, das hintere ist aus der ersten Abfrage einzusetzen
curl "https://www.duckdns.org/update?domains=dergagi9.duckdns.org&token=51570840-8ed4-403a-8090-30f4dacc3b2f&txt=rL-ALVVDfHal08GUWz1T0PAevUOcWT-HgvJ7eMd0J6o"
3. Prüfen, ob TXT record gesetzt ist:
https://www.digwebinterface.com/?hostnames=dergagi9.duckdns.org&type=TXT&ns=resolver&useresolver=8.8.4.4&nameservers=
4. Certbot Validierung fortsetzen
dann erst im ersten Fenster "Return" drücken
NEU 2022-02: Automatisiertes Skript zur Zertifikatsaktualisierung, wie hier beschrieben
https://www.edvpfau.de/automatische-erneuerung-der-letsencrypt-wildcard-zertifikate-mit-duckdns/
______________________________________________________________________
Dateien "locked", können also z.B. nicht gelöscht werden
put Nextcloud in maintenance mode:
gedit /var/www/html/nextcloud/config/config.php
and change this line: 'maintenance' => true,
Empty table oc_file_locks: Use tool mysql run (the default table prefix is oc_, this prefix can be different or even empty):
mysql -u nextclouduser -p nextclouddb
password Dann ist man in MaridDb eingeloggt; darin dann:
DELETE FROM oc_file_locks WHERE 1; \q
disable maintenance mode (undo first step)
gedit /var/www/html/nextcloud/config/config.php
and change this line: 'maintenance' => false,
Festplatten-Layout
3000GB Hitachi Deskstar 5K3000 HDS5C3030ALA630 CoolSpin 32MB 3.5" (8.9cm) SATA 6Gb/s
3000GB Western Digital WD30EZRX 3TB interne Festplatte (8,9 cm (3,5 Zoll), 5400 rpm, 2ms, 64MB Cache, SATA III
Problem mit WD-Platten und LCC
http://idle3-tools.sourceforge.net/ http://koitsu.wordpress.com/2012/05/30/wd30ezrx-and-aggressive-head-parking/
Get idle3 timer raw value
idle3ctl -g /dev/sdh
Disable idle3 timer:
idle3ctl -d /dev/sdh
Serial auslesen mit:
udevadm info --query=all --name=/dev/sdi | grep ID_SERIAL_SHORT
Serial Systemplatte 160GB:
JC0150HT0J7TPC
Serials der Datenplatten
00 : 00000000000000 (1TB System (Arch), Samsung)
geht
01 : 234BGY0GS (3TB Toshiba) data 014 02 : ZDHB5RY6 (3TB Ironwolf NAS) data 016 03 : ZGY7743F (3TB Ironwolf NAS) data 015 04 : MJ1311YNG3Y4SA (3TB Toshiba) data 005 05 : MJ1311YNG3SYKA (3TB Toshiba) data 001
geht jetzt auch, Molex-Kontakt Problem behoben
06 : MJ1311YNG4J48A (3TB Toshiba) data2 113 07 : WW60B6RZ (4TB Seagate Ironwolf Slim) data2 116 08 : WD-WCC4N3CHNN7K (3TB WD Red) data2 114 09 : MJ1311YNG3UUPA (3TB Toshiba) data 012 10 : MJ0351YNGA02YA (3TB Toshiba) data2 102
geht
11 : MJ1311YNG3SAMA (3TB) data 013 12 : WW60CK42 (4TB Seagate IronWolf Slim) data2 121 13 : MJ1311YNG09EDA (3TB) data2 104 14 : WD-WCC7K7VCRJZT (3TB WD Red) data 002 15 : MCE9215Q0AUYTW (3TB Toshiba) data2 100
geht
16 : ZDHBBDY5 (4TB Seagate Ironwolf) data2 120 17 : 18 : ZGY7821M (3TB Seagate IronWolf) data2 119 19 : 20 : MJ1311YNG3RM5A (3TB Toshiba) data 008
geht
21 : WD-WCC7K5THL257 (3TB WD Red) data2 103 22 : ZDHA9E6A (3TB Seagate Ironwolf) data 018 23 : WD-WMC4N0L7H2HV (3TB WD) data2 107 24 : WD-WCC7K2JL6DSL (3TB WD Red) data 010 25 : WD-WCC4N5DZ1CEU (3TB WD Red) data2 115
geht
26 : WD-WMC4N0L359DL (3TB WD) data2 106 27 : WW6078X8 (4TB Seagate IronWolf Slim) data 019 28 : WD-WCC4N1ZY6VVY (3TB WD Red) data2 110 29 : WD-WCC4N6EVNFZ5 (3TB WD Red) data2 109 30 : WD-WCC4N2DJ9XL8 (3TB WD Red) data 003
geht
31 : MJ1311YNG3NT5A (3TB Toshiba) data 009 32 : MCM9215Q0B9LSY (3TB Toshiba) data2 101 33 : ZDHAWE09 (3TB Seagate Ironwolf) data2 105 34 : MJ1311YNG38VGA (3TB Toshiba) data 004 35 : MJ1311YNG3WZVA (3TB Toshiba) data 000
geht
36 : WD-WCC7K0SNC8T6 (3TB WD Red) data2 111 37 : ZDH906SD (4TB Seagate Ironwolf) data2 118 38 : WD-WCC4N0RC60LS (3TB WD Red) data 006 39 : WD-WCC4N2JPEN1D (3TB WD Red) data 017 40 : WD-WCC4N4NHKFN0 (3TB WD Red) data2 117
geht
41 : WD-WCC4N7CXVHLU (3TB WD Red) data2 112 42 : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122 43 : WD-WCC070299387 (3TB WD) data2 108 44 : MJ1311YNG3NZ3A (3TB Toshiba) data 011 45 : MJ1311YNG25Z6A (3TB Toshiba) data 007
TOTAL: 44 (20 + 23 + 0 SPARE (extern aber vorbereitet und getestet) + 1 Systemplatte) von 46 möglichen
Raid Baubefehl
im Screen mdadm
mdadm --create /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1 /dev/sdl1 /dev/sdm1 /dev/sdn1 /dev/sdo1 /dev/sdp1
Re-Create 2014-01-31:
NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git:
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024
Re-Create 2014-05-23: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdn1:1024 /dev/sdp1:1024 /dev/sdl1:1024 /dev/sdo1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdk1:1024 /dev/sdw1:1024
Re-Create 2014-07-10: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024
Zweites Raid Baubefehl DATA2
im Screen mdadm
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdv1 /dev/sdw1 /dev/sdj1 /dev/sdh1
Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126
Öffnen:
cryptsetup luksOpen /dev/md126 cr_md126
XFS Filesystem drauf:
mkfs.xfs /dev/mapper/cr_md126
Versuch Recreate 2014-10-12 nach missglücktem Grow von 4 auf 5 RAID-Devices, scheiße:
./mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdy1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdj1:1024
Echtes Recreate 2014-10-12:
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdq1 /dev/sdi1 /dev/sdj1 /dev/sdx1
Vierter (Dritter nicht dokumentiert) Raid Baubefehl DATA2 2021-10-28
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126
cryptsetup luksOpen /dev/md126 cr_md126
mkfs.xfs /dev/mapper/cr_md126
_________ 2021-11-18 nach normalem Reboot (Netzwerk war weg) ließ sich data2 nicht mehr mounten ("can't read superblock"), ist aber ein XFS-Problem, kein mdadm-Problem. xfs_repair lief nicht an (mount first etc. pp; -L Option NICHT genutzt) LÖSUNG: Reboot -> mdadm --stop -> mdadm --create --assume-clean etc. pp. -> dann mounten, dauert zwar sehr lange (ca. 20 Minuten), hat dann aber geklappt und alle Daten noch da
Drittes Raid Recreate DATA und DATA2 2015-01-20
./mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdk1:1024 /dev/sdx1:1024
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdm1:1024 /dev/sdo1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdd1:1024 /dev/sdh1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Viertes Raid Recreate DATA 2015-02-01
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen. Ohne hddtemp etc. wohl auch stabiler
mdadm aus /builds/mdadm
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1:1024 /dev/sdd1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sdp1:1024 /dev/sdb1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024
Mit normalem mdadm gehts wohl auch
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1 /dev/sdd1 /dev/sdk1 /dev/sdg1 /dev/sdp1 /dev/sdb1 /dev/sdr1 /dev/sdf1 /dev/sdh1 /dev/sdj1 /dev/sde1 /dev/sdg1 /dev/sds1 /dev/sdu1 /dev/sdm1 /dev/sdq1 /dev/sdc1 /dev/sdv1
Builden OHNE Spare, also 18 Devices, dann Spare adden
PROBLEM:
mdadm: failed to open /dev/sdg1 after earlier success - aborting
Fünftes Raid Recreate DATA 2015-02-28
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen.
mdadm aus /builds/mdadm
dqelcpfhmakgsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Sechstes Raid Recreate DATA und DATA2 2015-03-11
3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen.
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqemcpfhialgsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdi1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Siebtes Raid Recreate DATA und DATA2 2015-03-15
3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18
in /root/bin
./diskserial2.sh
um die Festplattenreihenfolge im Raid zu sehen.
DATA2 mit normalem mdadm
ybixw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdi1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqjdcprtgalshunfkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdf1:1024 /dev/sdk1:1024 /dev/sdv1:1024
Builden OHNE Spare, also 18 Devices, dann Spare adden
Achtes Raid Recreate DATA und DATA2 2015-03-21
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfldpgicakhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Neuntes Raid Recreate DATA und DATA2 2015-04-22
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Zehntes Raid Recreate DATA und DATA2 2015-04-24
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
Elftes Raid Recreate DATA und DATA2 2015-04-26
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfmcpgidalhsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdd1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
12. Raid Recreate DATA und DATA2 2015-05-06
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqel cpfh makg sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
smartctl-timeouts ergänzt 2015-05-07
/etc/udev/rules.d/ http://article.gmane.org/gmane.linux.raid/48238/match=smartctl+timeouts
The smartctl-timeouts scripts fix commonly mismatching defaults with drives that have no error recovery timeout configured, which has often lead to data loss.
To test, extract the files to /etc/udev/rules.d/ and
- reboot*. For me, the rules somehow had no effect without rebooting.
13. Raid Recreate DATA und DATA2 2015-05-11
DATA2 mit normalem mdadm
xcswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdc1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
epfl dogi bakh rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024
14. Raid Recreate DATA und DATA2 2015-05-14
DATA2 mit normalem mdadm
xbswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
dpek cofh lajg rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024
15. Raid Recreate DATA und DATA2 2015-05-20
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl dpgi mbkh sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
16. Raid Recreate DATA und DATA2 2015-05-21
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfb 4 dpgi 8 jalh 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdj1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
17. Raid Recreate DATA und DATA2 2015-05-22
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
18. Raid Recreate DATA und DATA2 2015-05-23
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
fqga 4 ephj 8 mcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
19. Raid Recreate DATA und DATA2 2015-05-24
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
fqgm 4 ephj 8 dbli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
20. Raid Recreate DATA und DATA2 2015-05-31
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
21. Raid Recreate DATA und DATA2 2015-06-06
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
22. Raid Recreate DATA und DATA2 2015-06-09
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
23. Raid Recreate DATA und DATA2 2015-06-11
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
24. Raid Recreate DATA und DATA2 2015-06-12
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
25. Raid Recreate DATA und DATA2 2015-06-20, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
26. Raid Recreate DATA und DATA2 2015-06-27, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
27. Raid Recreate DATA und DATA2 2015-06-28
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
28. Raid Recreate DATA und DATA2 2015-07-14
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
fqgm 4 ephj 8 bcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdb1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024
29. Raid Recreate DATA und DATA2 2015-07-19
DATA2 mit normalem mdadm
xbswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
dpek 4 cofh 8 lajg 12 rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024
30. Raid Recreate DATA und DATA2 2015-07-26
DATA2 mit normalem mdadm
yctxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
31. Raid Recreate DATA und DATA2 2015-07-27
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqek 4 cpfh 8 lajg 12 sunriv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdi1:1024 /dev/sdv1:1024
32. Raid Recreate DATA und DATA2 2015-08-09
DATA2 mit normalem mdadm
xbswv
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1
DATA mdadm aus /builds/mdadm
epfl 4 dogi 8 cakh 12 rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024
33. Raid Recreate DATA und DATA2 2015-08-20
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
DATA mdadm aus /builds/mdadm
dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024
34. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL
DATA2 mit normalem mdadm
ybtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1
35. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL nach interupted DATA2 Raid6 Grow
Grow mdadm --grow --raid-devices=6 /dev/md126 --backup-file=/home/gagi/mda126backup_20150911
DATA2 mit normalem mdadm
ydtxw
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
Neu dazu kam dann sdo1
Versuch von --update=revert-reshape
--assemble --update=revert-reshape" can be used to undo a reshape that has just been started but isn't really wanted. This is very new and while it passes basic tests it cannot be guaranteed. mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 /dev/sdo1 --backup-file=/home/gagi/mda126backup_20150911
md126 Reshape läuft als Raid6 wieder normal an und hat auch resumed (bei ca. 1.5%) :-) in diesem Zustand lässt sich md126 auf decrypten und mounten, Daten sind da. Sieht also alles gut aus. Reshape dauert noch ca. 3400 Minunten, also ca. 2,36 Tage ;-)
36. Raid Recreate DATA und DATA2 2016-01-19 nach neuer Platte rein im Betrieb :-(
DATA2 mit normalem mdadm
aa cvz 4 yqo
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=7 /dev/sdaa1 /dev/sdc1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1
DATA mdadm aus /builds/mdadm
esfl 4 drgi 8 mbkh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024
37. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung
DATA2 mit normalem mdadm
ab bw aa 4 zrpo 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1
DATA mdadm aus /builds/mdadm
dtfm 4 csgi 8 nalh 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdn1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024
38. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung
DATA2 mit normalem mdadm
aa bvz 4 yqon 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1
DATA mdadm aus /builds/mdadm
dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024
39. Raid Recreate DATA und DATA2 2016-07-23
DATA2 mit normalem mdadm
ab bw aa 4 zrpo 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1
DATA mdadm aus /builds/mdadm
dtfl 4 csgi 8 makh 12 vxqujy
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdj1:1024 /dev/sdy1:1024
40. Raid Recreate DATA und DATA2 2016-07-24
DATA2 mit normalem mdadm
ab cw aa 4 zrpo 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdc1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1
DATA mdadm aus /builds/mdadm
etgm 4 dshj 8 nbli 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdn1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024
41. Raid Recreate DATA und DATA2 2016-07-26
DATA2 mit normalem mdadm
aa bvz 4 yqon 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1
DATA mdadm aus /builds/mdadm
dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024
42. Raid Recreate DATA2 2016-08-11 SATA-KARTEN UMGEBAUT, NEUES SCRIPT
DATA2 mit normalem mdadm
mvhl 4 kcsn 8
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1
43. Raid Recreate NUR DATA2 2016-08-18 nach interupted DATA2 Raid6 Grow
Grow mdadm --grow --raid-devices=9 /dev/md126 --backup-file=/home/gagi/mda126backup
Dann ist bei ca. 45% das System gestallt (war heiß im Raum). Reboot -> md126 mit 9 Platten und clean, aber read-only und nicht mehr am Gown
DATA2 mit normalem mdadm
mvhl 4 kcsn
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1
Also nut mit 8 Devices -> FEHLER! und blöde Idee. cryptsetup LuksOpen geht zwar noch richtig, aber Filesystem-Fehler beim mounten
Neu dazu kam dann sdz1
Versuch von --update=revert-reshape
--assemble --update=revert-reshape" can be used to undo a reshape that has just been started but isn't really wanted. This is very new and while it passes basic tests it cannot be guaranteed. mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1
geht nicht, das 9. und neue Device sdz1 hat andere Superblock!
cryptsetup luksClose cr_md125
Nochmal createn mit 9, auch wenn 9. device sicher noch nicht richtig im Raid6 eingegrowt war. Allerdings könnte dann das Filesystem passen -> mount -> Daten da
lugk 4 jbrm 8 y
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdu1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdy1
mount: Einhängen von /dev/mapper/cr_md126 auf /data2 ist fehlgeschlagen: Die Struktur muss bereinigt werden
Besser, aber nochwas komisch. -> XFS-Check
xfs_repair /dev/mapper/cr_md126
Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 bad magic # 0xc76d91a7 in inode 32617927112 (Daten fork) bmbt block 6322787567 bad data fork in inode 32617927112 cleared inode 32617927112
Dann noch viele andere Fehler und einiges in lost&found (vor allem auch viel vom neuen Singstar-Song-Archiv, davon aber zum Glück noch Backup auf 750er ToughDrive vorhanden) ABER: md126 lässt sich mit crypt entschlüsseln UND danach auch mounten -> meisten Daten also wieder da!
nochmal stop und dann nochmal
mvhl 4 kcsn 8 z mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1
Klappt nicht! :-(
So wie ist gehts zwar das mounten, allerdings sind scheinbar viele Daten korrupt! :-(((
md126 stoppen
nur mit den ursprünglichen 8 devices baun
mvhl 4 kcsn
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1
xfs_repair
Viele Fehler -> ohoh :-(( -> Shit alles weg bis auf 3TB lost&found
WICHTIG: DER GANZE UNTERBROCHENE GROW-PROZESS WÄRE WAHRSCHEINLICH EINFACH NACH DEM MOUNTEN (!!!) NORMAL WEITERGELAUFEN!!
Nochmal mit 9 aber 9. fehlend
mvhl 4 kcsn 8 z
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 missing
-> geht auf und wird gemountet -> wieder einiges da -> xfs_repair (3x) -> dann keiner Fehler mehr erkannt -> Viele alten Daten wieder OK, neuere (so ab 19.9.2015) größtenteils korrupt :-(
9. devices wieder dazu -> wird neu eingebunden
44. Raid ReSync-Stop DATA 2016-11-01
Nach Hänger wollte DATA (schon noch clean) resynchen, was dann immer noch einiger Zeit (mehrere Stunden, ca. 50%) ohne log-Eintrag hängen blieb. Dies hat auch bei mehreren Anläufen (ca. 6 Stück) nicht geklappt.
Laufenden ReSync stoppen:
echo frozen > /sys/block/md125/md/sync_action
Gestoppten ReSync als Complete setzen:
echo none > /sys/block/md125/md/resync_start
Danach auch xfs-repair
xfs_repair /dev/mapper/cr_md125
Cronjob ausgeschalten für Auto-Sync einmal im Monat
45. Raid Recreate DATA und DATA2 2016-11-08
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
46. Raid Recreate DATA und DATA2 2016-12-05
DATA2 mit normalem mdadm
lwgk 4 jbsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
47. Raid Recreate DATA und DATA2 2017-02-07
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
48. Raid Recreate DATA und DATA2 2017-02-24
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
49. Raid Recreate DATA 2017-03-24
Vormittags Server ganz aus. Dann Nachmittags hochgefahren, dabei sind 2 Platten "hängen geblieben" -> Data mit 2 fehlenden Platten clean but degraded
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
50. Raid Recreate DATA und DATA2 2017-04-22
DATA2 mit normalem mdadm
lwgk 4 jbsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
51. Raid Recreate DATA und DATA2 2017-05-09 nach USV-Alarm und Shutdown
29 Platten insgesamt
DATA2 mit normalem mdadm
lvgk 4 jbrm 8 z
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1
DATA mdadm aus /builds/mdadm
xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
52. Raid Recreate DATA und DATA2 2017-05-12
29 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
53. Raid Recreate DATA und DATA2 2017-05-13
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
54. Raid Recreate DATA2 2017-05-19 nach Mailand
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
55. Raid Recreate DATA und DATA2 2017-05-21
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
56. Raid Recreate DATA und DATA2 2017-05-22
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
57. Raid Recreate DATA und DATA2 2017-05-26 Nach RöKo
29 Platten insgesamt
DATA2 mit normalem mdadm
mwhl 4 kcsn 8 aa
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1
DATA mdadm aus /builds/mdadm
yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
58. Raid Recreate DATA und DATA2 2017-07-07 nach Zock
29 Platten insgesamt
DATA2 mit normalem mdadm
lvgk 4 jbrm 8 z
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1
DATA mdadm aus /builds/mdadm
xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
59. Raid Recreate DATA und DATA2 2017-08-11
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
60. Raid Recreate DATA und DATA2 2017-08-13
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
61. Raid Recreate DATA und DATA2 2017-08-16
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
62. Raid Recreate DATA und DATA2 2017-09-10 Nach Berlinfahrt
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
63. Raid Recreate DATA und DATA2 2017-09-11 Nach Berlinfahrt2
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
64. Raid Recreate DATA und DATA2 2017-10-15 schon mit neuer USV
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
65. Raid Recreate DATA und DATA2 2017-11-05
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
66. Raid Recreate DATA und DATA2 2017-11-07
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
67. Raid Recreate DATA und DATA2 2017-11-13
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
68. Raid Recreate DATA und DATA2 2017-11-19
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
69. Raid Recreate DATA und DATA2 2017-12-07
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
70. Raid Recreate DATA und DATA2 2017-12-22
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
71. Raid Recreate DATA und DATA2 2017-12-27
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kdsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdd1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zc aa q 4 yev ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdc1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
72. Raid Recreate DATA und DATA2 2018-01-04
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
73. Raid Recreate DATA und DATA2 2018-01-06 nach 40er Zock
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024
74. Raid Recreate DATA und DATA2 2018-01-15 Nach Besuch Alex, Kammertür zu
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
75. Raid Recreate DATA und DATA2 2018-01-19
30 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbrm 8 ab t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1
DATA mdadm aus /builds/mdadm
zd aa p 4 ycv ad 8 qwo ac 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdp1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdq1:1024 /dev/sdw1:1024 /dev/sdo1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
76. Raid Recreate DATA und DATA2 2018-01-21
30 Platten insgesamt
DATA2 mit normalem mdadm
mxhl 4 kcsn 8 ab u
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1
DATA mdadm aus /builds/mdadm
ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
77. Raid Recreate DATA und DATA2 2018-01-24
30 Platten insgesamt
DATA2 mit normalem mdadm
lwgk 4 jbrm 8 aa t
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1
DATA mdadm aus /builds/mdadm
ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024
78. Raid Recreate DATA und DATA2 2018-02-28
32 Platten insgesamt
DATA2 mit normalem mdadm
myhl 4 kcsn 8 ac ut
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdm1 /dev/sdy1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdac1 /dev/sdu1 /dev/sdt1
DATA mdadm aus /builds/mdadm
aa e ab q 4 zdv ae 8 rxp ad 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdaa1:1024 /dev/sde1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdae1:1024 /dev/sdr1:1024 /dev/sdx1:1024 /dev/sdp1:1024 /dev/sdad1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024
79. Raid Recreate DATA und DATA2 2018-03-13 Arch->Debian
31 Platten insgesamt
DATA2 mit normalem mdadm
lxgk 4 jbrm 8 ab ts
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1
DATA jetzt so auch mit Standard-mdadm, nicht mehr aus /builds/mdadm
zd aa p 4 ycu ad 8 qwo ac 12 fhaeni
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 --data-offset=1024 /dev/sdz1 /dev/sdd1 /dev/sdaa1 /dev/sdp1 /dev/sdy1 /dev/sdc1 /dev/sdu1 /dev/sdad1 /dev/sdq1 /dev/sdw1 /dev/sdo1 /dev/sdac1 /dev/sdf1 /dev/sdh1 /dev/sda1 /dev/sde1 /dev/sdn1 /dev/sdi1
80. Raid Recreate DATA2 2018-04-25 on Debian, md126 (Data2) sollte Grown
31 Platten insgesamt
DATA2 mit normalem mdadm
kygl 4 ibrm 8 ab ts
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdk1 /dev/sdy1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1
sdu1 ist HOTSPARE und sollte eigentlich als Device Nummer 12 reingegrowt werden
81. Raid Recreate DATA2 2018-08-29 on Debian, md126 (Data2) sollte Grown
33 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(
DATA2 mit normalem mdadm
kzgl 4 ibsm 8 ad utv
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=12 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1
Mit 13. Grow-Device
kzgl 4 ibsm 8 ad utv 12 ac
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=13 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1 /dev/sdac1
sdac1 ist HOTSPARE und sollte eigentlich als Device Nummer 13 reingegrowt werden
LÖSUNG: Keiner der beiden oberen Befehle ausgeführt
mdadm --stop /dev/md126
mdadm --assemble --scan
Damit wurde wieder alles richtig erkannt. Dann luksopen und mounten -> Daten sind da und Grow setzt fort :-)
82. Raid Recreate DATA2 2019-09-10 on Debian, md126 (Data2) sollte Grown
34 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(
DATA2 mit normalem mdadm
l aa hm 4 jbtn 8 ae vuw 12 ad r
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1
Das hab ich gemacht und war OK. Dann XFS-Check. Dann nochmal 15. Devices reingegrowt. Wieder ist der Reshape nicht losgelaufen.
Nach Reboot war das Array dann auch komisch (Raid0 statt Raid6 etc.). Deshalb wieder mdadm --stop /dev/md126
Dann nochmal create, aber OHNE --assume-clean -> Daten OK und da, aber Resync angelaufen
mdadm --create /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1
Re-Sync ist durchgelaufen. Dann nochmal sdf1 neu partioniert (fd00 RAID), nochmal bad-block check, XFS-Check, Reboot -> alles OK
Wieder grow gestartet, wieder 0kb/sec und direkt am Anfang hängen geblieben.
LÖSUNG: Maximale Sync-Geschwindigkeit setzen:
echo max > /sys/block/md127/md/sync_max
Damit ist der Reshape losgelaufen :-)
Dann nach ca. 21% Reshape Hänger. Hard-Reset; dann kam md127 also Raid0 etc. raus. Also automatischer Assemble-Scan hat nicht funktioniert, obwohl die 15 Einzelplatten beim --examine alle das richtige (Raid6, 1 Delta-Device etc.) angezeigt haben.
Dann dieses falsche Raid0 md127 gestoppt und NICHT neu created, sondern manuell assembled:
mdadm --assemble /dev/md126 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1
OK, hat geklappt. Dann luksOpen und mount, dann ging auch der Reshape wieder bei 21% weiter :-) ___________________________________________________________________________________________________ ___________________________________________________________________________________________________
FALLS NÖTIG, nicht gemacht: Mit 15. Grow-Device
l aa hm 4 jbtn 8 ae vuw 12 ad rf
mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1
sdf1 ist HOTSPARE und sollte eigentlich als Device Nummer 15 reingegrowt werden
LÖSUNG von davor (Punkt 81. : 13 Devices in md126 reingegrowt) hat leider nicht funktioniert:
mdadm --stop /dev/md126 mdadm --assemble --scan
82. Raid Recreate DATA2 2021-10-29 on Debian, md126 (Data2) sollte Grown auf 20 Platten
41 Platten insgesamt
Grow-Befehl (VORSICHT: hat Backup-Datei nicht geschrieben, kürzen Filename verwenden und überprüfen!)
mdadm --grow --raid-devices=20 /dev/md126 --backup-file=/home/gagi/mda126backup_2021_10_29
Grow-Reshape lief los, stockte dann aber und ging nicht weiter.
echo max > /sys/block/md126/md/sync_max
hat leider nicht geholfen
mdadm --assemble --scan
geht zwar und erkennt auch das Delta-Device richtig (beim Booten selbständig nicht, erst mdadm --stop und dann assemble-scan), aber reshape bleibt dann immer wieder stehen.
echo frozen > /sys/block/md126/md/sync_action
nach dem assemble-scan, um reshape nicht sofort loslaufen zu lassen dann
xfs_repair /dev/mapper/cr_md126
md126 : active raid6 sdm1[0] sdt1[20] sdab1[19] sdae1[17] sds1[16] sdq1[15] sdg1[14] sdu1[13] sdak1[12] sdaa1[11] sdx1[10] sdy1[9] sdal1[8] sdo1[7] sdw1[6] sdb1[5] sdk1[4] sdn1[3] sdi1[2] sdag1[1]
49812285888 blocks super 1.2 level 6, 64k chunk, algorithm 2 [20/20] [UUUUUUUUUUUUUUUUUUUU]
resync=PENDING
bitmap: 1/22 pages [4KB], 65536KB chunk
Dann manuelles Neuzusammenbauen:
mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29
bringt
"mdadm: Reshape position is not suitably aligned. mdadm: Try normal assembly and stop again"
Dann also normal (also ohne revert-reshape):
mdadm --assemble /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29
baut zwar das Array auch zusammen (eigentlich genauso wie assmble-scan, auch mit Delta-Device), aber gleiches Problem mit nicht-durchlaufendem Reshape Dann also assemble ohne das Delta-Device also ohne das letzte /dev/sdt1:
"mdadm: backup file /home/gagi/mda126backup_2021_10_29 inaccessible: No such file or directory mdadm: /dev/md126 assembled from 19 drives - not enough to start the array while not clean - consider --force."
OK, dann also ein create mit nur den 19 Devices, um dann die 20te Platte nochmal neu dazu zu nehmen:
mdadm --create --assume-clean /dev/md126 --uuid=3fe35a06:a84c867c:69ea7e1c:2c808784 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1
LuksOpen findet nix!!! Dann nochmal create mit 20 Devices und letztes "missing": LuksOpen findet nix!!!
84. Raid Recreate DATA und DATA2 2022-09-24 on Debian, md127 (Data2) war schon gegrowt auf 21 Platten, 2 Spares neu dazu (Bad Mergentheim-Besuch)
43 Platten insgesamt
mehrere Platten von beides Raides waren im Betrieb disconnected -> beides Raids nicht mehr über --assemble --scan automatisch findbar,.
Manuelles Assemble:
mdadm --assemble /dev/md125 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1
Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben.
Manuelles Neuzusammenbauen md125:
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 --data-offset=1024 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1
-> GEHT! :-) -> md125 und DATA wieder da
Jetzt gehts an DATA2:
Manuelles Assemble:
mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1
mdadm: cannot open device missing: No such file or directory Manuelles Assemble mit Faulty device statt missing:
mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 /dev/sdu1 /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1
Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben: mdadm: /dev/md126 assembled from 13 drives - not enough to start the array.
Manuelles Neuzusammenbauen md126:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=21 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1
-> GEHT! :-) -> md126 und DATA2 wieder da Ein Missing device, da kommt jetzt eine der neuen Spares rein.
85. Raid Recreate DATA2 2023-02-27 on Debian, md126 (Data2) ist bei ca. 50% im Grow hängen geblieben
44 Platten insgesamt
20 im DATA (alles gut) Grow von 22 auf 23 in DATA2
DATA2 wird nicht nach Reboot richtig gefunden, sondern als Raid0 erkannt. stoppen -> manuelles assemble:
mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1
klappt auch, Delta-Device erkannt. Rebuild läuft natürlich erstmal nicht an, da noch nicht gemountet. Mount klappt aber nicht (!) 100% CPU dabei, aber kein Fortschritt beim Rebuild, der noch laufende Mount scheint den Rebuild (richtigerweise) erstmal zu blocken. xfs_check läuft nicht, da der sagt, müsste erst gemountet werden. Versuch Assemble ohne neues Delta-Device:
mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing
Geht nicht bei "nur" assemble mit "missing". Versuch ohne das Delta-Device (also erstmal wieder nur mit 22 Drives, wie vor dem Grow):
mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1
Macht er nicht mit der Fehlermeldung:
"mdadm: /dev/md126 assembled from 22 drives - not enough to start the array while not clean - consider --force."
Danach ist das komisch zusammengestellt: root@STORE2:/home/gagi# mdadm --detail /dev/md126 /dev/md126:
Version : 1.2
Raid Level : raid0
Total Devices : 18
Persistence : Superblock is persistent
State : inactive Working Devices : 18
Delta Devices : 1, (-1->0)
New Level : raid6
New Layout : left-symmetric
New Chunksize : 64K
Name : STORE2:126 (local to host STORE2)
UUID : 2d2a484e:b89df4cb:a63eca33:fe22bcc5
Events : 47096
Number Major Minor RaidDevice
- 65 1 - /dev/sdq1
- 8 1 - /dev/sda1
- 66 129 - /dev/sdao1
- 66 113 - /dev/sdan1
- 66 65 - /dev/sdak1
- 66 49 - /dev/sdaj1
- 66 17 - /dev/sdah1
- 65 225 - /dev/sdae1
- 65 209 - /dev/sdad1
- 65 177 - /dev/sdab1
- 65 161 - /dev/sdaa1
- 8 209 - /dev/sdn1
- 8 161 - /dev/sdk1
- 8 145 - /dev/sdj1
- 65 129 - /dev/sdy1
- 65 81 - /dev/sdv1
- 65 33 - /dev/sds1
- 8 33 - /dev/sdc1
Also wieder
mdadm --stop /dev/md126
Jetzt mit create aber OHNE missing, also nur für die alten 22 Drives:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=22 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1
OK, neues Array mit 22 Drives. Crypsetup klappt auch noch. Dann xfs_repair mit -n (keine Änderungen) -> findet keine Superblocks:
xfs_repair -n -v /dev/mapper/cr_md126
Phase 1 - find and verify superblock... bad primary superblock - bad magic number !!!
attempting to find secondary superblock... ..........................................
Mount funktioniert auch nicht (!!! :-( )
mount: /data2: wrong fs type, bad option, bad superblock on /dev/mapper/cr_md126, missing codepage or helper program, or other error.
Stoppen:
mdadm --stop /dev/md126 mdadm: Cannot get exclusive access to /dev/md126:Perhaps a running process, mounted filesystem or active volume group?
-> Reboot, dann klappt auch stoppen (direkt ohne vorher was anderes zu machen wie crypsetup oder so)
Jetzt mit create aber MIT missing, also für die neuen 23 Drives:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing
OK, geht, eine missing-device am Ende (logisch). xfs_check -n läuft aber zumindest mal los (also nicht mehr das superblock Problem) hat aber viele viele Fehler (!), die er aber wohl korrigieren würde/könnte (bisher nur simuliert, weil -n) Schlägt vorher Mounting vor wegen Journal-Einträgen usw.
mount /dev/mapper/cr_md126 /data2 mount: /data2: mount(2) system call failed: Structure needs cleaning.
Der Grow ist ja eben nur bis zur Hälfte durchgelaufen gewesen -> d.h. ein Array mit 23 Devices ist ja so (noch) nicht da gewesen (!) Wie kann man bei einem neu create eine halbes Delta-Device einbauen? Create mit SPARE drin und ohne --assume-clean -> evtl. wird Delta erkannt?
mdadm --create /dev/md127 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1
Ja, geht zwar, aber Delta nicht erkannt, ohne --assume-clean läuft dann ein resync an :-( Resync stoppen mit:
echo frozen > /sys/block/md127/md/sync_action
xfs_check läuft wieder an (keine Superblock-Probleme) hat aber wieder viele viele Fehler (Grow war halt nicht fertig). Mount geht auch wieder nicht :-(
mount: /data2: can't read superblock on /dev/mapper/cr_md126.
Dann nochmal das was noch am ehesten funktioniert hat:
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing
Und dann mit einen echten xfs_check, läuft sehr lange und bringt sehr sehr viele Fehlermeldungen (halber Grow) -> abgebrochen
Bringt so leider alles nix, Daten futsch !!! :-( Raid neu bauen und dann Backups von diversen Einzelplatte und von DATA wieder mühsam einspielen :-( Create neu ohne assume-clean und dann Sync:
mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1
Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126
Öffnen:
cryptsetup luksOpen /dev/md126 cr_md126
(XFS Filesystem drauf:, in diesem Falle nicht getan)
mkfs.xfs /dev/mapper/cr_md126
NEU: Wechsel auf Ext4:
mkfs.ext4 /dev/mapper/cr_md126
Damit dann checkbar über:
e2fsck -v /dev/mapper/cr_md126
Mounten:
mount /dev/mapper/cr_md126 /data2
___________________________
Theoretische Idee für vor dem create: mit revert-reshape und --backup-file (NICHT gemacht, da das mal zu Datenverlust geführt hat!)
mdadm --assemble --update=revert-reshape /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 --backup-file=/home/gagi/mda127backup2
86. Raid Recreate DATA und DATA2 2023-11-10
44 Platten insgesamt
DATA2 mit normalem mdadm
u an hv 4 z ad ac w 8 al ag oc 12 aj te ae 16 a am fy 20 lj ap
mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sdu1 /dev/sdan1 /dev/sdh1 /dev/sdv1 /dev/sdz1 /dev/sdad1 /dev/sdac1 /dev/sdw1 /dev/sdal1 /dev/sdag1 /dev/sdo1 /dev/sdc1 /dev/sdaj1 /dev/sdt1 /dev/sde1 /dev/sdae1 /dev/sda1 /dev/sdam1 /dev/sdf1 /dev/sdy1 /dev/sdl1 /dev/sdj1 /dev/sdap1
DATA mit normalem mdadm und offset
ai pnd 4 ah sk aq 8 b aa x ao 12 girq 16 m ak ab af 20
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 --data-offset=1024 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1 /dev/sdX1
Spare-Group einrichten
aktuelle Config in mdadm.conf schreiben
mdadm -D -s >> /etc/mdadm.conf
spare-group ergänzen
nano /etc/mdadm.conf
ganz unten spare-group=shared ergänzen
ARRAY /dev/md/126 metadata=1.2 spares=1 name=store2:126 UUID=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx spare-group=shared
Raid-Baustatus
cat /proc/mdstat
automatisch jede Sekunde aktualisiert
watch -n 1 cat /proc/mdstat
Verschlüssel von Hand (ohne Yast2)
Verschlüsseln:
cryptsetup -v --key-size 256 luksFormat /dev/md125
Mit speziellen Paramtern für Hardware-Verschlüsselung:
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md125
Öffnen:
cryptsetup luksOpen /dev/md125 cr_md125
Filesystem drauf:
mkfs.xfs /dev/mapper/cr_md125
store2:~ # mkfs.xfs /dev/mapper/cr_md125
meta-data=/dev/mapper/cr_md125 isize=256 agcount=36, agsize=268435424 blks
= sectsz=512 attr=2, projid32bit=0
data = bsize=4096 blocks=9523357168, imaxpct=5
= sunit=16 swidth=208 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal log bsize=4096 blocks=521728, version=2
= sectsz=512 sunit=16 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
root@STORE2:/dev/mapper# mkfs.xfs -f /dev/mapper/cr_md126
meta-data=/dev/mapper/cr_md126 isize=512 agcount=47, agsize=268435424 blks
= sectsz=4096 attr=2, projid32bit=1
= crc=1 finobt=1, sparse=1, rmapbt=0
= reflink=0
data = bsize=4096 blocks=12453071184, imaxpct=5
= sunit=16 swidth=272 blks
naming =version 2 bsize=4096 ascii-ci=0, ftype=1
log =internal log bsize=4096 blocks=521728, version=2
= sectsz=4096 sunit=1 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
Status:
cryptsetup luksDump /dev/md125
Grown
Festplatte vorbereiten
Open gdisk with the first hard drive:
$ gdisk /dev/sda
and type the following commands at the prompt:
Add a new partition: n Select the default partition number: Enter Use the default for the first sector: Enter For sda1 and sda2 type the appropriate size in MB (i.e. +100MB and +2048M). For sda3 just hit Enter to select the remainder of the disk. Select Linux RAID as the partition type: fd00 Write the table to disk and exit: w
Bad Blocks
Screen-Umgebung starten
screen -S bb
badblocks -vs -o sdy-badblock-test /dev/sdy
bzw. bei sehr großen Platten (>8TB) noch mit dieser Option
badblocks -vs -b4096 -o 14badblock-test /dev/sdau
verbose, show progress, output-file (log) badblocks sucht nur nach bad blocks, zerstört aber keine Daten.
Detach
Strg-a d = detach
Reatach
screen -r bb
ODER Wieder reingehen
screen -x bb
Falls nötig, Hot Spare aus Raid rausnehmen
mdadm --remove /dev/md125 /dev/sdn1
Device zum Raid hinzufügen
mdadm --add /dev/md126 /dev/sdf1
Raid reshapen mit zusätzlichem Device (dauert ca. 3 volle Tage)
mdadm --grow --raid-devices=15 /dev/md126 --backup-file=/home/gagi/mda126backup
Set Faulty
mdadm --manage --set-faulty /dev/md126 /dev/sdj1
um zu sehen, wer/was gerade Zugriff nimmt:
lsof /data
Samba-Service beenden:
rcsmb stop systemctl stop smbd.service
Unmounten:
umount /data
XFS (Data)
XFS checken (ungemountet)
xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126
eigentlich einfach
xfs_repair /dev/mapper/cr_md126
Cryptcontainer wachsen
cryptsetup --verbose resize cr_md126
Mounten:
mount /dev/mapper/cr_md126 /data2
XFS vergrößern
xfs_growfs /data2
XFS checken (ungemountet)
xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126
Read-Only Mounten:
mount -o ro /dev/mapper/cr_md126 /data2
Samba-Freigabe
There's a bug in Samba in openSuse 11.4. Here's the workaround:
go to Yast --> AppArmor --> Control Panel (on) --> Configure Profile Modes --> usr.sbin.smbd = complain go to Yast --> system --> runlevels --> smb=on + nmb=on reboot
Direkte Netwerkverbindung Store1 <-> Store 2.0
du kannst auch mal schauen was in /etc/udev/rules.d/70-persistent-net... (oder wie auch immer die date heißt) steht.
da wird die mac einer bestimmten netzwerkadresse (eth0, eth1, ...) zugewiesen.
die datei kannst du auch löschen oder verschieben - wird beim neustart neu angelegt.
da kommt machmal was durcheinander - bei 'nem kernelupdate oder bios-update.
GEHT ! unterschiedliche subnets (192.168.2.100 und 192.168.2.102)
Fast-Copy
1.) Empfänger (Store2.0)
cd <Zielverzeichnis> netcat -l -p 4323 | gunzip | cpio -i -d -m
2.) Sender (Store)
cd <Quellverzeichnis> find . -type f | cpio -p | gzip -1 | netcat 192.168.2.102 4323
1.) Empfänger (Store2.0)
socat tcp4-listen:4323 stdout | tar xvpf - /data/eBooks
2.) Sender (Store)
tar cvf - /data/eBooks | socat stdin tcp4:192.168.2.102:4323
Test mit Fortschrittsanzeige bei bekannter Datengröße:
1.) Empfänger (Store2.0)
cd <Zielverzeichnis> socat tcp4-listen:4323 stdout | pv -s 93G | tar xvpf -
2.) Sender (Store)
cd <Quellverzeichnis> tar cvf - * | pv -s 93G | socat stdin tcp4:192.168.2.102:4323
dd if=/dev/sdl | bar -s 1.5T | dd of=/dev/sdw
FileBot Renamer Linux
filebot -rename -get-subtitles -non-strict /data/Downloads/Fertig/ --output /data/Downloads/Fertig/FileBot/ --format "{n}/Season {s}/{n}.{s00e00}.{t}" --db TheTVDB
filebot -get-missing-subtitles -non-strict -r --lang en /data/Downloads/Fertig/FileBot/
filebot -script fn:replace --conflict override --def "e=.eng.srt" "r=.srt" /data/Downloads/Fertig/FileBot/
RemoteDesktop ArchLinux Client
z.B. auf Busfahrer: rdesktop -g 1440x900 -P -z -x l -r sound:off -u gagi 192.168.1.149
Backplane-Rotation zur Fehlerdiagnose
Urzustand mit 24 Platten 2013-11-12
/dev/sdx -> 00 : 00000000000000 (1TB) 31��C /dev/sdp -> 01 : WD-WCC070299387 (3TB WD) 31��C /dev/sdq -> 03 : MJ1311YNG3SSLA (3TB) 33��C /dev/sdr -> 05 : MJ1311YNG3NZ3A (3TB) 32��C /dev/sds -> 07 : MJ1311YNG4J48A (3TB) 32��C /dev/sdt -> 09 : MJ1311YNG3UUPA (3TB) 33��C /dev/sdu -> 11 : MJ1311YNG3SAMA (3TB) 32��C /dev/sdv -> 13 : MJ1311YNG3SU1A (3TB) 34��C /dev/sdw -> 15 : MCE9215Q0AUYTW (3TB Toshiba neu) 31��C /dev/sdh -> 16 : MJ0351YNGA02YA (3TB) nicht im Einsatz, bb-check 2013-08-28 37��C /dev/sdi -> 18 : MJ1311YNG3Y4SA (3TB) 40��C /dev/sdj -> 20 : WD-WCAWZ1881335 (3TB WD) hot spare 38��C /dev/sdk -> 22 : WD-WCAWZ2279670 (3TB WD) 41��C /dev/sdl -> 24 : MJ1311YNG25Z6A (3TB) 39��C /dev/sdm -> 26 : MJ1311YNG3RM5A (3TB) 39��C /dev/sdn -> 28 : MJ1311YNG3NT5A (3TB) 40��C /dev/sdo -> 30 : MCM9215Q0B9LSY (3TB Toshiba neu) 38��C /dev/sda -> 31 : 234BGY0GS (3TB Toshiba neu) 40��C /dev/sdb -> 33 : MJ1311YNG3WZVA (3TB) 43��C /dev/sdc -> 35 : MJ1311YNG3SYKA (3TB) 42��C /dev/sdd -> 37 : WD-WCC070198169 (3TB WD) 41��C /dev/sde -> 39 : MJ1311YNG3RZTA (3TB) 39��C /dev/sdf -> 41 : MJ1311YNG3LTRA (3TB) 39��C /dev/sdg -> 43 : MJ1311YNG38VGA (3TB) 39��C Insgesamt 24 Platten gefunden.
Crashes
ArchLinux 2011-09-09
Sep 9 18:20:04 localhost kernel: [156439.479947] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.480035] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.486612] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.503656] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:20:04 localhost kernel: [156439.504562] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO Sep 9 18:34:11 localhost -- MARK -- Sep 9 18:42:42 localhost kernel: [157797.911330] r8169: eth0: link up Sep 9 18:54:11 localhost -- MARK -- Sep 9 19:14:11 localhost -- MARK -- Sep 9 19:34:11 localhost -- MARK -- Sep 9 19:54:11 localhost -- MARK -- Sep 9 20:14:11 localhost -- MARK -- Sep 9 20:27:32 localhost kernel: [164086.971566] r8169: eth0: link up Sep 9 20:27:42 localhost kernel: [164097.580071] r8169: eth0: link up Sep 9 20:27:50 localhost kernel: [164105.391755] r8169: eth0: link up Sep 9 20:27:51 localhost kernel: [164106.272019] r8169: eth0: link up Sep 9 20:28:12 localhost kernel: [164127.150062] r8169: eth0: link up Sep 9 20:28:22 localhost kernel: [164137.941304] r8169: eth0: link up Sep 9 20:28:33 localhost kernel: [164148.890097] r8169: eth0: link up Sep 9 20:28:38 localhost kernel: [164153.080536] r8169: eth0: link up Sep 9 20:28:58 localhost kernel: [164173.790064] r8169: eth0: link up Sep 9 20:42:19 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Sep 9 20:42:19 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu Sep 9 20:42:19 localhost kernel: [ 0.000000] Linux version 2.6.32-lts (tobias@T-POWA-LX) (gcc version 4.6.1 20110819 (prerelease) (GCC) ) #1 SMP Tue Aug 30 08:59:44 CEST 2011 Sep 9 20:42:19 localhost kernel: [ 0.000000] Command line: root=/dev/disk/by-uuid/ba47ea9a-c24c-4dc6-a9a2-ca3b442bdbfc ro vga=0x31B Sep 9 20:42:19 localhost kernel: [ 0.000000] KERNEL supported cpus: Sep 9 20:42:19 localhost kernel: [ 0.000000] Intel GenuineIntel Sep 9 20:42:19 localhost kernel: [ 0.000000] AMD AuthenticAMD Sep 9 20:42:19 localhost kernel: [ 0.000000] Centaur CentaurHauls
OpenSuse 2011-09-26
Sep 26 23:15:59 store2 su: (to nobody) root on none Sep 26 23:17:17 su: last message repeated 2 times Sep 26 23:25:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 162 Sep 26 23:25:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166 Sep 26 23:25:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166 Sep 26 23:25:36 store2 smartd[4617]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166 Sep 26 23:25:37 store2 smartd[4617]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187 Sep 26 23:55:22 store2 smartd[4617]: Device: /dev/sdb [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 96 Sep 26 23:55:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 166 Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171 Sep 26 23:55:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171 Sep 26 23:55:32 store2 smartd[4617]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 98 Sep 27 00:55:26 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.
OpenSuse2011-09-27
Sep 27 16:35:17 store2 smbd[29588]: [2011/09/27 16:35:17.391212, 0] param/loadparm.c:8445(check_usershare_stat) Sep 27 16:35:17 store2 smbd[29588]: check_usershare_stat: file /var/lib/samba/usershares/ owned by uid 0 is not a regular file Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795153, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795341, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795323, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:44:06 store2 smbd[29163]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795368, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:44:06 store2 smbd[29163]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795422, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:44:06 store2 smbd[29597]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:44:06 store2 smbd[29597]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795468, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:44:06 store2 smbd[29592]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:44:06 store2 smbd[29592]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499038, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499082, 0] lib/util_sock.c:474(read_fd_with_timeout) Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499174, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499174, 0] lib/util_sock.c:1441(get_peer_addr_internal) Sep 27 16:45:42 store2 smbd[29593]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:45:42 store2 smbd[29585]: getpeername failed. Error was Der Socket ist nicht verbunden Sep 27 16:45:42 store2 smbd[29593]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 16:45:42 store2 smbd[29585]: read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt. Sep 27 19:35:14 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.
OpenSuse 2011-09-29
während kräftigem Copyjob von Store
Sep 29 23:16:19 su: last message repeated 2 times Sep 29 23:28:41 store2 smartd[4624]: Device: /dev/sdb [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 29 23:28:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 153 to 157 Sep 29 23:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 29 23:28:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 Sep 29 23:28:57 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Sep 29 23:58:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 29 23:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 29 23:58:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 29 23:58:57 store2 smartd[4624]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193 Sep 29 23:58:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176 Sep 29 23:59:02 store2 smartd[4624]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Sep 30 00:28:41 store2 smartd[4624]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193 Sep 30 00:28:43 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 00:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 00:28:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Sep 30 00:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 00:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 00:58:59 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 30 01:28:50 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 01:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 Sep 30 01:59:00 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:28:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162 Sep 30 02:28:48 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 02:28:52 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 Sep 30 02:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100 Sep 30 02:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99 Sep 30 09:39:22 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.
What you are seeing are the Normalized Attribute values changing.
For example when the Raw_Read_Error_Rate changed from 99 to 100, the increase in Normalized value from 99 to 100 means that the disk now thinks it is a bit LESS likely to fail than before, because this Normalized value is moving further above the (low) Threshold value.
ArchLinux 2011-10-17
Oct 17 21:21:35 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176 Oct 17 21:21:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176 Oct 17 21:21:45 localhost smartd[1941]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206 Oct 17 21:30:03 localhost -- MARK -- Oct 17 21:50:03 localhost -- MARK -- Oct 17 21:51:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Oct 17 21:51:41 localhost smartd[1941]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187 Oct 17 22:10:03 localhost -- MARK -- Oct 17 22:21:34 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181 Oct 17 22:21:47 localhost smartd[1941]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214 Oct 17 22:21:49 localhost smartd[1941]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214 Oct 17 22:30:03 localhost -- MARK -- Oct 17 22:50:03 localhost -- MARK -- Oct 17 23:11:18 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Oct 17 23:11:18 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu
ArchLinux 2011-11-06
Nov 6 12:39:05 localhost -- MARK -- Nov 6 12:42:18 localhost smartd[1927]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 200 Nov 6 12:42:20 localhost smartd[1927]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 187 Nov 6 12:42:24 localhost smartd[1927]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 222 to 214 Nov 6 12:42:25 localhost smartd[1927]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 222 Nov 6 12:42:26 localhost smartd[1927]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 214 to 222 Nov 6 12:59:05 localhost -- MARK -- Nov 6 14:29:21 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Nov 6 14:29:21 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu Nov 6 14:29:21 localhost kernel: [ 0.000000] Linux version 3.0-ARCH (tobias@T-POWA-LX) (gcc version 4.6.1 20110819 (prerelease) (GCC) ) #1 SMP PREEMPT Wed Oct$ Nov 6 14:29:21 localhost kernel: [ 0.000000] Command line: root=/dev/disk/by-id/ata-Hitachi_HCS5C1016CLA382_JC0150HT0J7TPC-part3 ro Nov 6 14:29:21 localhost kernel: [ 0.000000] BIOS-provided physical RAM map:
EINFACH SO!
ArchLinux 2011-11-21
Dabei war vorher ein Systemupdate gelaufen (inklusive neuem Kernel), aber noch nicht rebootet.
Nov 21 09:30:27 localhost smartd[2208]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206 Nov 21 09:30:30 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250 Nov 21 09:30:31 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240 Nov 21 09:30:35 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 240 Nov 21 09:43:32 localhost kernel: [1280595.864622] ------------[ cut here ]------------ Nov 21 09:43:32 localhost kernel: [1280595.864636] WARNING: at drivers/gpu/drm/i915/i915_irq.c:649 ironlake_irq_handler+0x1102/0x1110 [i915]() Nov 21 09:43:32 localhost kernel: [1280595.864638] Hardware name: H61M-S2V-B3 Nov 21 09:43:32 localhost kernel: [1280595.864639] Missed a PM interrupt Nov 21 09:43:32 localhost kernel: [1280595.864640] Modules linked in: xfs sha256_generic dm_crypt dm_mod raid456 async_raid6_recov async_pq raid6_pq async_xor xor async_memcpy async_tx md_mod coretemp nfsd exportfs nfs lockd fscache auth_rpcgss nfs_acl sunrpc ipv6 ext2 sr_mod cdrom snd_hda_codec_realtek usb_storage uas sg evdev snd_hda_intel snd_hda_codec iTCO_wdt snd_hwdep snd_pcm snd_timer i915 snd drm_kms_helper drm pcspkr i2c_algo_bit r8169 ppdev i2c_i801 shp chp parport_pc intel_agp i2c_core pci_hotplug parport intel_gtt mei(C) soundcore snd_page_alloc processor button mii iTCO_vendor_support video aesni_intel cryptd aes_x86_64 aes_generic ext4 mbcache jbd2 crc16 usbhid hid sd_mod sata_sil24 ahci libahci libata scsi_mod ehci_hcd usbcore Nov 21 09:43:32 localhost kernel: [1280595.864674] Pid: 0, comm: swapper Tainted: G C 3.0-ARCH #1 Nov 21 09:43:32 localhost kernel: [1280595.864675] Call Trace: Nov 21 09:43:32 localhost kernel: [1280595.864676] <IRQ> [<ffffffff8105c76f>] warn_slowpath_common+0x7f/0xc0 Nov 21 09:43:32 localhost kernel: [1280595.864684] [<ffffffff8105c866>] warn_slowpath_fmt+0x46/0x50 Nov 21 09:43:32 localhost kernel: [1280595.864688] [<ffffffff81078f7d>] ? queue_work+0x5d/0x70 Nov 21 09:43:32 localhost kernel: [1280595.864693] [<ffffffffa0235a22>] ironlake_irq_handler+0x1102/0x1110 [i915] Nov 21 09:43:32 localhost kernel: [1280595.864696] [<ffffffff812a4bc5>] ? dma_issue_pending_all+0x95/0xa0 Nov 21 09:43:32 localhost kernel: [1280595.864699] [<ffffffff81333db1>] ? net_rx_action+0x131/0x300 Nov 21 09:43:32 localhost kernel: [1280595.864702] [<ffffffff810bf835>] handle_irq_event_percpu+0x75/0x2a0 Nov 21 09:43:32 localhost kernel: [1280595.864705] [<ffffffff810bfaa5>] handle_irq_event+0x45/0x70 Nov 21 09:43:32 localhost kernel: [1280595.864707] [<ffffffff810c21af>] handle_edge_irq+0x6f/0x120 Nov 21 09:43:32 localhost kernel: [1280595.864710] [<ffffffff8100d9f2>] handle_irq+0x22/0x40 Nov 21 09:43:32 localhost kernel: [1280595.864712] [<ffffffff813f66aa>] do_IRQ+0x5a/0xe0 Nov 21 09:43:32 localhost kernel: [1280595.864715] [<ffffffff813f4393>] common_interrupt+0x13/0x13 Nov 21 09:43:32 localhost kernel: [1280595.864716] <EOI> [<ffffffff81273cdb>] ? intel_idle+0xcb/0x120 Nov 21 09:43:32 localhost kernel: [1280595.864720] [<ffffffff81273cbd>] ? intel_idle+0xad/0x120 Nov 21 09:43:32 localhost kernel: [1280595.864723] [<ffffffff81313d9d>] cpuidle_idle_call+0x9d/0x350 Nov 21 09:43:32 localhost kernel: [1280595.864726] [<ffffffff8100a21a>] cpu_idle+0xba/0x100 Nov 21 09:43:32 localhost kernel: [1280595.864729] [<ffffffff813d1eb2>] rest_init+0x96/0xa4 Nov 21 09:43:32 localhost kernel: [1280595.864731] [<ffffffff81748c23>] start_kernel+0x3de/0x3eb Nov 21 09:43:32 localhost kernel: [1280595.864733] [<ffffffff81748347>] x86_64_start_reservations+0x132/0x136 Nov 21 09:43:32 localhost kernel: [1280595.864735] [<ffffffff81748140>] ? early_idt_handlers+0x140/0x140 Nov 21 09:43:32 localhost kernel: [1280595.864737] [<ffffffff8174844d>] x86_64_start_kernel+0x102/0x111 Nov 21 09:43:32 localhost kernel: [1280595.864738] ---[ end trace 01037f4ec3ec4ee5 ]--- Nov 21 10:00:16 localhost smartd[2208]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200 Nov 21 10:00:18 localhost smartd[2208]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 193 Nov 21 10:00:19 localhost smartd[2208]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200 Nov 21 10:00:23 localhost smartd[2208]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200 Nov 21 10:00:29 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240 Nov 21 10:00:30 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250 Nov 21 10:00:33 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 230 Nov 21 10:00:34 localhost smartd[2208]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250 Nov 21 11:52:01 localhost kernel: [ 0.000000] Initializing cgroup subsys cpuset Nov 21 11:52:01 localhost kernel: [ 0.000000] Initializing cgroup subsys cpu