Store 2.0: Unterschied zwischen den Versionen

Aus Store2 Wiki
Zur Navigation springen Zur Suche springen
Zeile 213: Zeile 213:
  45  : MJ1311YNG25Z6A (3TB Toshiba) data 007
  45  : MJ1311YNG25Z6A (3TB Toshiba) data 007


TOTAL: 44 (20 + 22 + 1 SPARE + 1 Systemplatte) von 46 möglichen
TOTAL: 44 (20 + 23 + 0 SPARE + 1 Systemplatte) von 46 möglichen


= Raid Baubefehl =
= Raid Baubefehl =

Version vom 12. Mai 2023, 20:33 Uhr

STABILITÄT Store 2.0

Vermutung: Die drei SATA-Erweiterungskarten crashen gelegentlich das komplette System.

Karten:

http://www.sybausa.com/productInfo.php?iid=537 

Syba SY-PEX40008 4-port SATA II PCI-e Software RAID Controller Card--Bundle with Low Profile Bracket, SIL3124 Chipset Sind die identischen Karten, die immer noch von Backblaze verbaut werden (Pod 2.0 UND Pod 3.0!) Hängen an drei PCI-E 1x (kleiner Port)

RAID bliebt heile (zum Glück!), da die Karten dann komplett die Zugriff sperren.

Arch-Log files haben gar keine Einträge zu den Crashs!!!

Remote-Log über Syslogd (über Myth) zeigt als letzten Eintrag:

 mdadm: sending ioctl 1261 to a partition (buggy Eintrag, aber unkritisch)
 sata_sil24: IRQ status == 0xffffffff, PCI fault or device removal

sata-sil24:

https://ata.wiki.kernel.org/index.php/Sata_sil24 

Spurious interrupts are expected on SiI3124 suffering from IRQ loss erratum on PCI-X


PATCH?

http://old.nabble.com/-PATCH-06-13--sata_sil24%3A-implement-loss-of-completion-interrupt-on-PCI-X-errta-fix-p3799674.html

Thread über Zugang mit SIL3124 Chip

http://www.linuxquestions.org/questions/linux-kernel-70/how-to-access-sata-drives-attached-to-sii3124-719408/

Test?

http://marc.info/?l=linux-ide&m=127228317404771&w=2

Raid nach Booten öffnen und mount

Um Auto-Assembly beim Booten zu verhindern muss die Config-Datei /etc/mdadm.conf leer (oder zumindest komplett auskommentiert sein) und "MDADM_SCAN=no" in /etc/sysconfig/mdadm

1.) Checken ob alle Platten da sind:

/usr/local/bin/ds.sh 

Müssen im Moment 17 Platten sein. Basis ist die Datei disknum.txt unter /root/bin

2.) Raids suchen und assemblen (kein Autostart):

mdadm --assemble --scan 

3.) Cryptsetup:

cryptsetup luksOpen /dev/md125 cr_md125 

4.) Mounten:

mount /dev/mapper/cr_md125 /data

Schliessen wäre:

cryptsetup luksClose cr_md125

JD2

java -Xmx512m -jar /home/gagi/jd2/JDownloader.jar

bzw in /home/gagi/jd2/

./JDownloader2

VNC

dergagi.selfhost.bz:5901

NextCloud

Anleitung überhaupt

https://www.howtoforge.de/anleitung/wie-man-nextcloud-unter-debian-10-installiert/ 

DuckDNS und Letsencrypt

https://www.edvpfau.de/wildcard-zertifikat-mit-duckdns-erstellen/ 

1. Wildcard Zertifikat holen:

certbot --server https://acme-v02.api.letsencrypt.org/directory -d *.dergagi9.duckdns.org --manual --preferred-challenges dns-01 certonly 

Einmal "Y" drücken und dann offen lassen für später

2. Secret setzen, dabei Token von DuckDNS-Account verwenden, das hintere ist aus der ersten Abfrage einzusetzen

curl "https://www.duckdns.org/update?domains=dergagi9.duckdns.org&token=51570840-8ed4-403a-8090-30f4dacc3b2f&txt=rL-ALVVDfHal08GUWz1T0PAevUOcWT-HgvJ7eMd0J6o" 

3. Prüfen, ob TXT record gesetzt ist:

https://www.digwebinterface.com/?hostnames=dergagi9.duckdns.org&type=TXT&ns=resolver&useresolver=8.8.4.4&nameservers= 

4. Certbot Validierung fortsetzen

dann erst im ersten Fenster "Return" drücken

NEU 2022-02: Automatisiertes Skript zur Zertifikatsaktualisierung, wie hier beschrieben

https://www.edvpfau.de/automatische-erneuerung-der-letsencrypt-wildcard-zertifikate-mit-duckdns/ 


______________________________________________________________________

Dateien "locked", können also z.B. nicht gelöscht werden

put Nextcloud in maintenance mode:

gedit /var/www/html/nextcloud/config/config.php 

and change this line: 'maintenance' => true,

Empty table oc_file_locks: Use tool mysql run (the default table prefix is oc_, this prefix can be different or even empty):

mysql -u nextclouduser -p nextclouddb 

password Dann ist man in MaridDb eingeloggt; darin dann:

DELETE FROM oc_file_locks WHERE 1;
\q

disable maintenance mode (undo first step)

gedit /var/www/html/nextcloud/config/config.php 

and change this line: 'maintenance' => false,

Festplatten-Layout

3000GB Hitachi Deskstar 5K3000 HDS5C3030ALA630 CoolSpin 32MB 3.5" (8.9cm) SATA 6Gb/s

3000GB Western Digital WD30EZRX 3TB interne Festplatte (8,9 cm (3,5 Zoll), 5400 rpm, 2ms, 64MB Cache, SATA III

Problem mit WD-Platten und LCC

http://idle3-tools.sourceforge.net/ 
http://koitsu.wordpress.com/2012/05/30/wd30ezrx-and-aggressive-head-parking/ 

Get idle3 timer raw value

idle3ctl -g /dev/sdh 

Disable idle3 timer:

idle3ctl -d /dev/sdh 

Serial auslesen mit:

udevadm info --query=all --name=/dev/sdi | grep ID_SERIAL_SHORT 

Serial Systemplatte 160GB:

JC0150HT0J7TPC

Serials der Datenplatten

00  : 00000000000000 (1TB System (Arch), Samsung)

geht

01  : 234BGY0GS (3TB Toshiba) data 014
02  : ZDHB5RY6 (3TB Ironwolf NAS) data 016
03  : ZGY7743F (3TB Ironwolf NAS) data 015
04  : MJ1311YNG3Y4SA (3TB Toshiba) data 005
05  : MJ1311YNG3SYKA (3TB Toshiba) data 001

geht jetzt auch, Molex-Kontakt Problem behoben

06  : MJ1311YNG4J48A (3TB Toshiba) data2 113
07  : WW60B6RZ (4TB Seagate Ironwolf Slim) data2 116
08  : WD-WCC4N3CHNN7K (3TB WD Red) data2 114
09  : MJ1311YNG3UUPA (3TB Toshiba) data 012
10  : MJ0351YNGA02YA (3TB Toshiba) data2 102

geht

11  : MJ1311YNG3SAMA (3TB) data 013
12  : WW60CK42 (4TB Seagate IronWolf Slim) data2 121
13  : MJ1311YNG09EDA (3TB) data2 104
14  : WD-WCC7K7VCRJZT (3TB WD Red) data 002
15  : MCE9215Q0AUYTW (3TB Toshiba) data2 100

geht

16  : ZDHBBDY5 (4TB Seagate Ironwolf) data2 120
17  : 
18  : ZGY7821M (3TB Seagate IronWolf) data2 119
19  : 
20  : MJ1311YNG3RM5A (3TB Toshiba) data 008

geht

21  : WD-WCC7K5THL257 (3TB WD Red) data2 103
22  : ZDHA9E6A (3TB Seagate Ironwolf) data 018
23  : WD-WMC4N0L7H2HV (3TB WD) data2 107
24  : WD-WCC7K2JL6DSL (3TB WD Red) data 010
25  : WD-WCC4N5DZ1CEU (3TB WD Red) data2 115

geht

26  : WD-WMC4N0L359DL (3TB WD) data2 106
27  : WW6078X8 (4TB Seagate IronWolf Slim) data 019
28  : WD-WCC4N1ZY6VVY (3TB WD Red) data2 110
29  : WD-WCC4N6EVNFZ5 (3TB WD Red) data2 109 
30  : WD-WCC4N2DJ9XL8 (3TB WD Red) data 003

geht

31  : MJ1311YNG3NT5A (3TB Toshiba) data 009
32  : MCM9215Q0B9LSY (3TB Toshiba) data2 101
33  : ZDHAWE09 (3TB Seagate Ironwolf) data2 105
34  : MJ1311YNG38VGA (3TB Toshiba) data 004
35  : MJ1311YNG3WZVA (3TB Toshiba) data 000

geht

36  : WD-WCC7K0SNC8T6 (3TB WD Red) data2 111
37  : ZDH906SD (4TB Seagate Ironwolf) data2 118
38  : WD-WCC4N0RC60LS (3TB WD Red) data 006
39  : WD-WCC4N2JPEN1D (3TB WD Red) data 017
40  : WD-WCC4N4NHKFN0 (3TB WD Red) data2 117

geht

41  : WD-WCC4N7CXVHLU (3TB WD Red) data2 112
42  : WW60CTY3 (4TB Seagate IronWolf Slim) data2 122
43  : WD-WCC070299387 (3TB WD) data2 108
44  : MJ1311YNG3NZ3A (3TB Toshiba) data 011
45  : MJ1311YNG25Z6A (3TB Toshiba) data 007

TOTAL: 44 (20 + 23 + 0 SPARE + 1 Systemplatte) von 46 möglichen

Raid Baubefehl

im Screen mdadm

mdadm --create /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1 /dev/sdl1 /dev/sdm1 /dev/sdn1 /dev/sdo1 /dev/sdp1


Re-Create 2014-01-31: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git:

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024

Re-Create 2014-05-23: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdn1:1024 /dev/sdp1:1024 /dev/sdl1:1024 /dev/sdo1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdk1:1024 /dev/sdw1:1024

Re-Create 2014-07-10: NEUER RICHTIGER RE-CREATE BEFEHL von mdadm-git aus /builds/mdadm/:

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdf1:1024 /dev/sdg1:1024 /dev/sdh1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdn1:1024 /dev/sdo1:1024 /dev/sdq1:1024 /dev/sdm1:1024 /dev/sdp1:1024 /dev/sdu1:1024 /dev/sdv1:1024 /dev/sda1:1024 /dev/sds1:1024 /dev/sdl1:1024 /dev/sdw1:1024

Zweites Raid Baubefehl DATA2

im Screen mdadm

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdv1 /dev/sdw1 /dev/sdj1 /dev/sdh1

Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:

cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126

Öffnen:

cryptsetup luksOpen /dev/md126 cr_md126 

XFS Filesystem drauf:

mkfs.xfs /dev/mapper/cr_md126

Versuch Recreate 2014-10-12 nach missglücktem Grow von 4 auf 5 RAID-Devices, scheiße:

./mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=4 /dev/sdy1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdj1:1024

Echtes Recreate 2014-10-12:

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdq1 /dev/sdi1 /dev/sdj1 /dev/sdx1

Vierter (Dritter nicht dokumentiert) Raid Baubefehl DATA2 2021-10-28

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=20 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 
cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126 
cryptsetup luksOpen /dev/md126 cr_md126 
mkfs.xfs /dev/mapper/cr_md126

_________ 2021-11-18 nach normalem Reboot (Netzwerk war weg) ließ sich data2 nicht mehr mounten ("can't read superblock"), ist aber ein XFS-Problem, kein mdadm-Problem. xfs_repair lief nicht an (mount first etc. pp; -L Option NICHT genutzt) LÖSUNG: Reboot -> mdadm --stop -> mdadm --create --assume-clean etc. pp. -> dann mounten, dauert zwar sehr lange (ca. 20 Minuten), hat dann aber geklappt und alle Daten noch da

Drittes Raid Recreate DATA und DATA2 2015-01-20

./mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdk1:1024 /dev/sdx1:1024
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdm1:1024 /dev/sdo1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdd1:1024 /dev/sdh1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024

Builden OHNE Spare, also 18 Devices, dann Spare adden

Viertes Raid Recreate DATA 2015-02-01

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen. Ohne hddtemp etc. wohl auch stabiler

mdadm aus /builds/mdadm

./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1:1024 /dev/sdd1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sdp1:1024 /dev/sdb1:1024 /dev/sdr1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sde1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdc1:1024 /dev/sdv1:1024 


Mit normalem mdadm gehts wohl auch

mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdo1 /dev/sdd1 /dev/sdk1 /dev/sdg1 /dev/sdp1 /dev/sdb1 /dev/sdr1 /dev/sdf1 /dev/sdh1 /dev/sdj1 /dev/sde1 /dev/sdg1 /dev/sds1 /dev/sdu1 /dev/sdm1 /dev/sdq1 /dev/sdc1 /dev/sdv1 

Builden OHNE Spare, also 18 Devices, dann Spare adden

PROBLEM:

mdadm: failed to open /dev/sdg1 after earlier success - aborting

Fünftes Raid Recreate DATA 2015-02-28

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen.

mdadm aus /builds/mdadm

dqelcpfhmakgsunrjv 
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024 

Builden OHNE Spare, also 18 Devices, dann Spare adden

Sechstes Raid Recreate DATA und DATA2 2015-03-11

3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen.

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqemcpfhialgsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdi1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024 

Builden OHNE Spare, also 18 Devices, dann Spare adden

Siebtes Raid Recreate DATA und DATA2 2015-03-15

3 neue aber identische Sil-Sata Raid PCI1x Karten mit Firmware 2.6.18

in /root/bin

./diskserial2.sh 

um die Festplattenreihenfolge im Raid zu sehen.

DATA2 mit normalem mdadm

ybixw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdi1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqjdcprtgalshunfkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdf1:1024 /dev/sdk1:1024 /dev/sdv1:1024 

Builden OHNE Spare, also 18 Devices, dann Spare adden

Achtes Raid Recreate DATA und DATA2 2015-03-21

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfldpgicakhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

Neuntes Raid Recreate DATA und DATA2 2015-04-22

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

Zehntes Raid Recreate DATA und DATA2 2015-04-24

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfldpgimbkhsunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

Elftes Raid Recreate DATA und DATA2 2015-04-26

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfmcpgidalhsunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdd1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

12. Raid Recreate DATA und DATA2 2015-05-06

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqel cpfh makg sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024


smartctl-timeouts ergänzt 2015-05-07

/etc/udev/rules.d/ 
http://article.gmane.org/gmane.linux.raid/48238/match=smartctl+timeouts

The smartctl-timeouts scripts fix commonly mismatching defaults with drives that have no error recovery timeout configured, which has often lead to data loss.

To test, extract the files to /etc/udev/rules.d/ and

  • reboot*. For me, the rules somehow had no effect without rebooting.

13. Raid Recreate DATA und DATA2 2015-05-11

DATA2 mit normalem mdadm

xcswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdc1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

epfl dogi bakh rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024

14. Raid Recreate DATA und DATA2 2015-05-14

DATA2 mit normalem mdadm

xbswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

dpek cofh lajg rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024

15. Raid Recreate DATA und DATA2 2015-05-20

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl dpgi mbkh sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

16. Raid Recreate DATA und DATA2 2015-05-21

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfb 4 dpgi 8 jalh 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdb1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdj1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

17. Raid Recreate DATA und DATA2 2015-05-22

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024


18. Raid Recreate DATA und DATA2 2015-05-23

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

fqga 4 ephj 8 mcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

19. Raid Recreate DATA und DATA2 2015-05-24

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

fqgm 4 ephj 8 dbli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdd1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

20. Raid Recreate DATA und DATA2 2015-05-31

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

21. Raid Recreate DATA und DATA2 2015-06-06

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

22. Raid Recreate DATA und DATA2 2015-06-09

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

23. Raid Recreate DATA und DATA2 2015-06-11

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

24. Raid Recreate DATA und DATA2 2015-06-12

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

25. Raid Recreate DATA und DATA2 2015-06-20, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 bpgi 8 mckh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdb1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

26. Raid Recreate DATA und DATA2 2015-06-27, irgendwie in letztet Zeit immer nur, wenn die Tür geöffnet/bewegt wurde

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

cqfl 4 epgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdc1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

27. Raid Recreate DATA und DATA2 2015-06-28

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

28. Raid Recreate DATA und DATA2 2015-07-14

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

fqgm 4 ephj 8 bcli 12 sunrkv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdf1:1024 /dev/sdq1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdb1:1024 /dev/sdc1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdk1:1024 /dev/sdv1:1024

29. Raid Recreate DATA und DATA2 2015-07-19

DATA2 mit normalem mdadm

xbswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

dpek 4 cofh 8 lajg 12 rtmqiu
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdo1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdi1:1024 /dev/sdu1:1024

30. Raid Recreate DATA und DATA2 2015-07-26

DATA2 mit normalem mdadm

yctxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdc1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

eqfl 4 dpgi 8 mbkh 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdq1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdp1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

31. Raid Recreate DATA und DATA2 2015-07-27

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqek 4 cpfh 8 lajg 12 sunriv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdk1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdl1:1024 /dev/sda1:1024 /dev/sdj1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdi1:1024 /dev/sdv1:1024

32. Raid Recreate DATA und DATA2 2015-08-09

DATA2 mit normalem mdadm

xbswv
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdx1 /dev/sdb1 /dev/sds1 /dev/sdw1 /dev/sdv1 

DATA mdadm aus /builds/mdadm

epfl 4 dogi 8 cakh 12 rtmqju
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdo1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdc1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdr1:1024 /dev/sdt1:1024 /dev/sdm1:1024 /dev/sdq1:1024 /dev/sdj1:1024 /dev/sdu1:1024

33. Raid Recreate DATA und DATA2 2015-08-20

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1 

DATA mdadm aus /builds/mdadm

dqel 4 cpfh 8 makg 12 sunrjv
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdq1:1024 /dev/sde1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdp1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdg1:1024 /dev/sds1:1024 /dev/sdu1:1024 /dev/sdn1:1024 /dev/sdr1:1024 /dev/sdj1:1024 /dev/sdv1:1024

34. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL

DATA2 mit normalem mdadm

ybtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdb1 /dev/sdt1 /dev/sdx1 /dev/sdw1

35. Raid Recreate NUR DATA2 2015-09-01 NACH NETZTEILWECHSEL nach interupted DATA2 Raid6 Grow

Grow
mdadm --grow --raid-devices=6 /dev/md126 --backup-file=/home/gagi/mda126backup_20150911  

DATA2 mit normalem mdadm

ydtxw
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=5 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1
Neu dazu kam dann sdo1

Versuch von --update=revert-reshape

--assemble --update=revert-reshape" can be used to undo a reshape
 that has just been started but isn't really wanted.  This is very
 new and while it passes basic tests it cannot be guaranteed.

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdy1 /dev/sdd1 /dev/sdt1 /dev/sdx1 /dev/sdw1 /dev/sdo1 --backup-file=/home/gagi/mda126backup_20150911
md126 Reshape läuft als Raid6 wieder normal an und hat auch resumed (bei ca. 1.5%) :-)
in diesem Zustand lässt sich md126 auf decrypten und mounten, Daten sind da.
Sieht also alles gut aus. Reshape dauert noch ca. 3400 Minunten, also ca. 2,36 Tage ;-)

36. Raid Recreate DATA und DATA2 2016-01-19 nach neuer Platte rein im Betrieb :-(

DATA2 mit normalem mdadm

aa cvz 4 yqo
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=7 /dev/sdaa1 /dev/sdc1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1


DATA mdadm aus /builds/mdadm

esfl 4 drgi 8 mbkh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdd1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sdb1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024

37. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung

DATA2 mit normalem mdadm

ab bw aa 4 zrpo 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1


DATA mdadm aus /builds/mdadm

dtfm 4 csgi 8 nalh 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdm1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdn1:1024 /dev/sda1:1024 /dev/sdl1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024

38. Raid Recreate DATA und DATA2 2016-07-07 nach Ultrastar-Indizierung

DATA2 mit normalem mdadm

aa bvz 4 yqon 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1


DATA mdadm aus /builds/mdadm

dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024

39. Raid Recreate DATA und DATA2 2016-07-23

DATA2 mit normalem mdadm

ab bw aa 4 zrpo 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdb1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1


DATA mdadm aus /builds/mdadm

dtfl 4 csgi 8 makh 12 vxqujy
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sdt1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sds1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdj1:1024 /dev/sdy1:1024

40. Raid Recreate DATA und DATA2 2016-07-24

DATA2 mit normalem mdadm

ab cw aa 4 zrpo 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdab1 /dev/sdc1 /dev/sdw1 /dev/sdaa1 /dev/sdz1 /dev/sdr1 /dev/sdp1 /dev/sdo1


DATA mdadm aus /builds/mdadm

etgm 4 dshj 8 nbli 12 vxquky
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sde1:1024 /dev/sdt1:1024 /dev/sdg1:1024 /dev/sdm1:1024 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdh1:1024 /dev/sdj1:1024 /dev/sdn1:1024 /dev/sdb1:1024 /dev/sdl1:1024 /dev/sdi1:1024 /dev/sdv1:1024 /dev/sdx1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdk1:1024 /dev/sdy1:1024

41. Raid Recreate DATA und DATA2 2016-07-26

DATA2 mit normalem mdadm

aa bvz 4 yqon 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdaa1 /dev/sdb1 /dev/sdv1 /dev/sdz1 /dev/sdy1 /dev/sdq1 /dev/sdo1 /dev/sdn1


DATA mdadm aus /builds/mdadm

dsfl 4 crgi 8 makh 12 uwptjx
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdd1:1024 /dev/sds1:1024 /dev/sdf1:1024 /dev/sdl1:1024 /dev/sdc1:1024 /dev/sdr1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdm1:1024 /dev/sda1:1024 /dev/sdk1:1024 /dev/sdh1:1024 /dev/sdu1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdt1:1024 /dev/sdj1:1024 /dev/sdx1:1024

42. Raid Recreate DATA2 2016-08-11 SATA-KARTEN UMGEBAUT, NEUES SCRIPT

DATA2 mit normalem mdadm

mvhl 4 kcsn 8
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1


43. Raid Recreate NUR DATA2 2016-08-18 nach interupted DATA2 Raid6 Grow

Grow
mdadm --grow --raid-devices=9 /dev/md126 --backup-file=/home/gagi/mda126backup

Dann ist bei ca. 45% das System gestallt (war heiß im Raum). Reboot -> md126 mit 9 Platten und clean, aber read-only und nicht mehr am Gown

DATA2 mit normalem mdadm

mvhl 4 kcsn
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1

Also nut mit 8 Devices -> FEHLER! und blöde Idee. cryptsetup LuksOpen geht zwar noch richtig, aber Filesystem-Fehler beim mounten

Neu dazu kam dann sdz1

Versuch von --update=revert-reshape

--assemble --update=revert-reshape" can be used to undo a reshape
 that has just been started but isn't really wanted.  This is very
 new and while it passes basic tests it cannot be guaranteed.

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1

geht nicht, das 9. und neue Device sdz1 hat andere Superblock!

cryptsetup luksClose cr_md125 

Nochmal createn mit 9, auch wenn 9. device sicher noch nicht richtig im Raid6 eingegrowt war. Allerdings könnte dann das Filesystem passen -> mount -> Daten da

lugk 4 jbrm 8 y
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdu1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdy1
mount: Einhängen von /dev/mapper/cr_md126 auf /data2 ist fehlgeschlagen: Die Struktur muss bereinigt werden 

Besser, aber nochwas komisch. -> XFS-Check

xfs_repair /dev/mapper/cr_md126 
Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 
Metadata corruption detected at xfs_bmbt block 0x60a0a30f8/0x1000 
bad magic # 0xc76d91a7 in inode 32617927112 (Daten fork) bmbt block 6322787567 
bad data fork in inode 32617927112 
cleared inode 32617927112 

Dann noch viele andere Fehler und einiges in lost&found (vor allem auch viel vom neuen Singstar-Song-Archiv, davon aber zum Glück noch Backup auf 750er ToughDrive vorhanden) ABER: md126 lässt sich mit crypt entschlüsseln UND danach auch mounten -> meisten Daten also wieder da!

nochmal stop und dann nochmal

mvhl 4 kcsn 8 z 
mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdz1 

Klappt nicht! :-(

So wie ist gehts zwar das mounten, allerdings sind scheinbar viele Daten korrupt! :-(((

md126 stoppen

nur mit den ursprünglichen 8 devices baun

 mvhl 4 kcsn
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=8 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 
xfs_repair 

Viele Fehler -> ohoh :-(( -> Shit alles weg bis auf 3TB lost&found


WICHTIG: DER GANZE UNTERBROCHENE GROW-PROZESS WÄRE WAHRSCHEINLICH EINFACH NACH DEM MOUNTEN (!!!) NORMAL WEITERGELAUFEN!!

Nochmal mit 9 aber 9. fehlend

 mvhl 4 kcsn 8 z
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdv1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 missing

-> geht auf und wird gemountet -> wieder einiges da -> xfs_repair (3x) -> dann keiner Fehler mehr erkannt -> Viele alten Daten wieder OK, neuere (so ab 19.9.2015) größtenteils korrupt :-(

9. devices wieder dazu -> wird neu eingebunden

44. Raid ReSync-Stop DATA 2016-11-01

Nach Hänger wollte DATA (schon noch clean) resynchen, was dann immer noch einiger Zeit (mehrere Stunden, ca. 50%) ohne log-Eintrag hängen blieb. Dies hat auch bei mehreren Anläufen (ca. 6 Stück) nicht geklappt.

Laufenden ReSync stoppen:

echo frozen > /sys/block/md125/md/sync_action 

Gestoppten ReSync als Complete setzen:

echo none > /sys/block/md125/md/resync_start 

Danach auch xfs-repair

xfs_repair /dev/mapper/cr_md125 

Cronjob ausgeschalten für Auto-Sync einmal im Monat

45. Raid Recreate DATA und DATA2 2016-11-08

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

46. Raid Recreate DATA und DATA2 2016-12-05

DATA2 mit normalem mdadm

lwgk 4 jbsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

47. Raid Recreate DATA und DATA2 2017-02-07

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

48. Raid Recreate DATA und DATA2 2017-02-24

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

49. Raid Recreate DATA 2017-03-24

Vormittags Server ganz aus. Dann Nachmittags hochgefahren, dabei sind 2 Platten "hängen geblieben" -> Data mit 2 fehlenden Platten clean but degraded

DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

50. Raid Recreate DATA und DATA2 2017-04-22

DATA2 mit normalem mdadm

lwgk 4 jbsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzq 4 xcu ac 8 rvp ab 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

51. Raid Recreate DATA und DATA2 2017-05-09 nach USV-Alarm und Shutdown

29 Platten insgesamt

DATA2 mit normalem mdadm

lvgk 4 jbrm 8 z
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1 


DATA mdadm aus /builds/mdadm

xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

52. Raid Recreate DATA und DATA2 2017-05-12

29 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

53. Raid Recreate DATA und DATA2 2017-05-13

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

54. Raid Recreate DATA2 2017-05-19 nach Mailand

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1

55. Raid Recreate DATA und DATA2 2017-05-21

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

56. Raid Recreate DATA und DATA2 2017-05-22

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

57. Raid Recreate DATA und DATA2 2017-05-26 Nach RöKo

29 Platten insgesamt

DATA2 mit normalem mdadm

mwhl 4 kcsn 8 aa
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdm1 /dev/sdw1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdaa1 


DATA mdadm aus /builds/mdadm

yezq 4 xdu ac 8 rvp ab 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdz1:1024 /dev/sdq1:1024 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdr1:1024 /dev/sdv1:1024 /dev/sdp1:1024 /dev/sdab1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

58. Raid Recreate DATA und DATA2 2017-07-07 nach Zock

29 Platten insgesamt

DATA2 mit normalem mdadm

lvgk 4 jbrm 8 z
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=9 /dev/sdl1 /dev/sdv1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdz1 


DATA mdadm aus /builds/mdadm

xdyp 4 wct ab 8 quo aa 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdx1:1024 /dev/sdd1:1024 /dev/sdy1:1024 /dev/sdp1:1024 /dev/sdw1:1024 /dev/sdc1:1024 /dev/sdt1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdu1:1024 /dev/sdo1:1024 /dev/sdaa1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

59. Raid Recreate DATA und DATA2 2017-08-11

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

60. Raid Recreate DATA und DATA2 2017-08-13

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024


61. Raid Recreate DATA und DATA2 2017-08-16

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

62. Raid Recreate DATA und DATA2 2017-09-10 Nach Berlinfahrt

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

63. Raid Recreate DATA und DATA2 2017-09-11 Nach Berlinfahrt2

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

64. Raid Recreate DATA und DATA2 2017-10-15 schon mit neuer USV

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

65. Raid Recreate DATA und DATA2 2017-11-05

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

66. Raid Recreate DATA und DATA2 2017-11-07

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

67. Raid Recreate DATA und DATA2 2017-11-13

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

68. Raid Recreate DATA und DATA2 2017-11-19

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

69. Raid Recreate DATA und DATA2 2017-12-07

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

70. Raid Recreate DATA und DATA2 2017-12-22

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

71. Raid Recreate DATA und DATA2 2017-12-27

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kdsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdd1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zc aa q 4 yev ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdc1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sde1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

72. Raid Recreate DATA und DATA2 2018-01-04

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

73. Raid Recreate DATA und DATA2 2018-01-06 nach 40er Zock

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

zd aa q 4 ycv ad 8 rwp ac 12 fhaeoi
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdo1:1024 /dev/sdi1:1024

74. Raid Recreate DATA und DATA2 2018-01-15 Nach Besuch Alex, Kammertür zu

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

75. Raid Recreate DATA und DATA2 2018-01-19

30 Platten insgesamt

DATA2 mit normalem mdadm

lxgk 4 jbrm 8 ab t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1


DATA mdadm aus /builds/mdadm

zd aa p 4 ycv ad 8 qwo ac 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdaa1:1024 /dev/sdp1:1024 /dev/sdy1:1024 /dev/sdc1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdq1:1024 /dev/sdw1:1024 /dev/sdo1:1024 /dev/sdac1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

76. Raid Recreate DATA und DATA2 2018-01-21

30 Platten insgesamt

DATA2 mit normalem mdadm

mxhl 4 kcsn 8 ab u
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdm1 /dev/sdx1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdab1 /dev/sdu1


DATA mdadm aus /builds/mdadm

ze aa q 4 ydv ad 8 rwp ac 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdz1:1024 /dev/sde1:1024 /dev/sdaa1:1024 /dev/sdq1:1024 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdad1:1024 /dev/sdr1:1024 /dev/sdw1:1024 /dev/sdp1:1024 /dev/sdac1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

77. Raid Recreate DATA und DATA2 2018-01-24

30 Platten insgesamt

DATA2 mit normalem mdadm

lwgk 4 jbrm 8 aa t
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=10 /dev/sdl1 /dev/sdw1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdaa1 /dev/sdt1


DATA mdadm aus /builds/mdadm

ydzp 4 xcu ac 8 qvo ab 12 fhaeni
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdy1:1024 /dev/sdd1:1024 /dev/sdz1:1024 /dev/sdp1:1024 /dev/sdx1:1024 /dev/sdc1:1024 /dev/sdu1:1024 /dev/sdac1:1024 /dev/sdq1:1024 /dev/sdv1:1024 /dev/sdo1:1024 /dev/sdab1:1024 /dev/sdf1:1024 /dev/sdh1:1024 /dev/sda1:1024 /dev/sde1:1024 /dev/sdn1:1024 /dev/sdi1:1024

78. Raid Recreate DATA und DATA2 2018-02-28

32 Platten insgesamt

DATA2 mit normalem mdadm

myhl 4 kcsn 8 ac ut
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdm1 /dev/sdy1 /dev/sdh1 /dev/sdl1 /dev/sdk1 /dev/sdc1 /dev/sds1 /dev/sdn1 /dev/sdac1 /dev/sdu1 /dev/sdt1


DATA mdadm aus /builds/mdadm

aa e ab q 4 zdv ae 8 rxp ad 12 gibfoj
./mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 /dev/sdaa1:1024 /dev/sde1:1024 /dev/sdab1:1024 /dev/sdq1:1024 /dev/sdz1:1024 /dev/sdd1:1024 /dev/sdv1:1024 /dev/sdae1:1024 /dev/sdr1:1024 /dev/sdx1:1024 /dev/sdp1:1024 /dev/sdad1:1024 /dev/sdg1:1024 /dev/sdi1:1024 /dev/sdb1:1024 /dev/sdf1:1024 /dev/sdo1:1024 /dev/sdj1:1024

79. Raid Recreate DATA und DATA2 2018-03-13 Arch->Debian

31 Platten insgesamt

DATA2 mit normalem mdadm

  lxgk 4 jbrm 8 ab ts
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdl1 /dev/sdx1 /dev/sdg1 /dev/sdk1 /dev/sdj1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1


DATA jetzt so auch mit Standard-mdadm, nicht mehr aus /builds/mdadm

zd aa p 4 ycu ad 8 qwo ac 12 fhaeni
mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=18 --data-offset=1024 /dev/sdz1 /dev/sdd1 /dev/sdaa1 /dev/sdp1 /dev/sdy1 /dev/sdc1 /dev/sdu1 /dev/sdad1 /dev/sdq1 /dev/sdw1 /dev/sdo1 /dev/sdac1 /dev/sdf1 /dev/sdh1 /dev/sda1 /dev/sde1 /dev/sdn1 /dev/sdi1

80. Raid Recreate DATA2 2018-04-25 on Debian, md126 (Data2) sollte Grown

31 Platten insgesamt

DATA2 mit normalem mdadm

  kygl 4 ibrm 8 ab ts
 mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=11 /dev/sdk1 /dev/sdy1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sdr1 /dev/sdm1 /dev/sdab1 /dev/sdt1 /dev/sds1

sdu1 ist HOTSPARE und sollte eigentlich als Device Nummer 12 reingegrowt werden

81. Raid Recreate DATA2 2018-08-29 on Debian, md126 (Data2) sollte Grown

33 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(

DATA2 mit normalem mdadm

  kzgl 4 ibsm 8 ad utv
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=12 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1 

Mit 13. Grow-Device

  kzgl 4 ibsm 8 ad utv 12 ac
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=13 /dev/sdk1 /dev/sdz1 /dev/sdg1 /dev/sdl1 /dev/sdi1 /dev/sdb1 /dev/sds1 /dev/sdm1 /dev/sdad1 /dev/sdu1 /dev/sdt1 /dev/sdv1 /dev/sdac1 

sdac1 ist HOTSPARE und sollte eigentlich als Device Nummer 13 reingegrowt werden

LÖSUNG: Keiner der beiden oberen Befehle ausgeführt

 mdadm --stop /dev/md126  
 mdadm --assemble --scan  

Damit wurde wieder alles richtig erkannt. Dann luksopen und mounten -> Daten sind da und Grow setzt fort :-)

82. Raid Recreate DATA2 2019-09-10 on Debian, md126 (Data2) sollte Grown

34 Platten insgesamt md126 stimmt nicht, wird als raid0 gesehen, Delta wird zwar erkannt, aber Device-Reihenfolge stimmt auch nicht :-(

DATA2 mit normalem mdadm

  l aa hm 4 jbtn 8 ae vuw 12 ad r
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 

Das hab ich gemacht und war OK. Dann XFS-Check. Dann nochmal 15. Devices reingegrowt. Wieder ist der Reshape nicht losgelaufen.

Nach Reboot war das Array dann auch komisch (Raid0 statt Raid6 etc.). Deshalb wieder mdadm --stop /dev/md126

Dann nochmal create, aber OHNE --assume-clean -> Daten OK und da, aber Resync angelaufen

 mdadm --create /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=14 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 

Re-Sync ist durchgelaufen. Dann nochmal sdf1 neu partioniert (fd00 RAID), nochmal bad-block check, XFS-Check, Reboot -> alles OK

Wieder grow gestartet, wieder 0kb/sec und direkt am Anfang hängen geblieben.

LÖSUNG: Maximale Sync-Geschwindigkeit setzen:

echo max > /sys/block/md127/md/sync_max 

Damit ist der Reshape losgelaufen :-)

Dann nach ca. 21% Reshape Hänger. Hard-Reset; dann kam md127 also Raid0 etc. raus. Also automatischer Assemble-Scan hat nicht funktioniert, obwohl die 15 Einzelplatten beim --examine alle das richtige (Raid6, 1 Delta-Device etc.) angezeigt haben.

Dann dieses falsche Raid0 md127 gestoppt und NICHT neu created, sondern manuell assembled:

mdadm --assemble /dev/md126 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1 

OK, hat geklappt. Dann luksOpen und mount, dann ging auch der Reshape wieder bei 21% weiter :-) ___________________________________________________________________________________________________ ___________________________________________________________________________________________________

FALLS NÖTIG, nicht gemacht: Mit 15. Grow-Device

  l aa hm 4 jbtn 8 ae vuw 12 ad rf
 mdadm --create --assume-clean /dev/md126 --uuid=26662577:c4b0e4dd:a10fa3ba:dad13785 --chunk=64 --level=raid6 --layout=ls --raid-devices=15 /dev/sdl1 /dev/sdaa1 /dev/sdh1 /dev/sdm1 /dev/sdj1 /dev/sdb1 /dev/sdt1 /dev/sdn1 /dev/sdae1 /dev/sdv1 /dev/sdu1 /dev/sdw1 /dev/sdad1 /dev/sdr1 /dev/sdf1 

sdf1 ist HOTSPARE und sollte eigentlich als Device Nummer 15 reingegrowt werden

LÖSUNG von davor (Punkt 81. : 13 Devices in md126 reingegrowt) hat leider nicht funktioniert:

 mdadm --stop /dev/md126  
 mdadm --assemble --scan

82. Raid Recreate DATA2 2021-10-29 on Debian, md126 (Data2) sollte Grown auf 20 Platten

41 Platten insgesamt

Grow-Befehl (VORSICHT: hat Backup-Datei nicht geschrieben, kürzen Filename verwenden und überprüfen!)

mdadm --grow --raid-devices=20 /dev/md126 --backup-file=/home/gagi/mda126backup_2021_10_29 

Grow-Reshape lief los, stockte dann aber und ging nicht weiter.

echo max > /sys/block/md126/md/sync_max 

hat leider nicht geholfen

mdadm --assemble --scan 

geht zwar und erkennt auch das Delta-Device richtig (beim Booten selbständig nicht, erst mdadm --stop und dann assemble-scan), aber reshape bleibt dann immer wieder stehen.

echo frozen > /sys/block/md126/md/sync_action 

nach dem assemble-scan, um reshape nicht sofort loslaufen zu lassen dann

xfs_repair /dev/mapper/cr_md126 
md126 : active raid6 sdm1[0] sdt1[20] sdab1[19] sdae1[17] sds1[16] sdq1[15] sdg1[14] sdu1[13] sdak1[12] sdaa1[11] sdx1[10] sdy1[9] sdal1[8] sdo1[7] sdw1[6] sdb1[5] sdk1[4] sdn1[3] sdi1[2] sdag1[1]
     49812285888 blocks super 1.2 level 6, 64k chunk, algorithm 2 [20/20] [UUUUUUUUUUUUUUUUUUUU]
       resync=PENDING
     bitmap: 1/22 pages [4KB], 65536KB chunk

Dann manuelles Neuzusammenbauen:

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29 

bringt

"mdadm: Reshape position is not suitably aligned.
mdadm: Try normal assembly and stop again" 

Dann also normal (also ohne revert-reshape):

mdadm --assemble /dev/md126 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 /dev/sdt1 --backup-file=/home/gagi/mda126backup_2021_10_29 

baut zwar das Array auch zusammen (eigentlich genauso wie assmble-scan, auch mit Delta-Device), aber gleiches Problem mit nicht-durchlaufendem Reshape Dann also assemble ohne das Delta-Device also ohne das letzte /dev/sdt1:

"mdadm: backup file /home/gagi/mda126backup_2021_10_29 inaccessible: No such file or directory
mdadm: /dev/md126 assembled from 19 drives - not enough to start the array while not clean - consider --force."

OK, dann also ein create mit nur den 19 Devices, um dann die 20te Platte nochmal neu dazu zu nehmen:

mdadm --create --assume-clean /dev/md126 --uuid=3fe35a06:a84c867c:69ea7e1c:2c808784 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 /dev/sdm1 /dev/sdag1 /dev/sdi1 /dev/sdn1 /dev/sdk1 /dev/sdb1 /dev/sdw1 /dev/sdo1 /dev/sdal1 /dev/sdy1 /dev/sdx1 /dev/sdaa1 /dev/sdak1 /dev/sdu1 /dev/sdg1 /dev/sdq1 /dev/sds1 /dev/sdae1 /dev/sdab1 

LuksOpen findet nix!!! Dann nochmal create mit 20 Devices und letztes "missing": LuksOpen findet nix!!!

84. Raid Recreate DATA und DATA2 2022-09-24 on Debian, md127 (Data2) war schon gegrowt auf 21 Platten, 2 Spares neu dazu (Bad Mergentheim-Besuch)

43 Platten insgesamt

mehrere Platten von beides Raides waren im Betrieb disconnected -> beides Raids nicht mehr über --assemble --scan automatisch findbar,.

Manuelles Assemble:

mdadm --assemble /dev/md125 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1 

Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben.

Manuelles Neuzusammenbauen md125:

mdadm --create --assume-clean /dev/md125 --chunk=64 --level=raid6 --layout=ls --raid-devices=19 --data-offset=1024 /dev/sdam1 /dev/sde1 /dev/sdm1 /dev/sdab1 /dev/sdak1 /dev/sdd1 /dev/sdae1 /dev/sdap1 /dev/sdx1 /dev/sdah1 /dev/sdr1 /dev/sdao1 /dev/sdi1 /dev/sdk1 /dev/sda1 /dev/sdc1 /dev/sdb1 /dev/sdaf1 /dev/sdp1

-> GEHT! :-) -> md125 und DATA wieder da

Jetzt gehts an DATA2:

Manuelles Assemble:

mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1 

mdadm: cannot open device missing: No such file or directory Manuelles Assemble mit Faulty device statt missing:

mdadm --assemble /dev/md126 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 /dev/sdu1 /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1

Geht nicht, da nicht mehr genügend drives die Kennung von md125 haben: mdadm: /dev/md126 assembled from 13 drives - not enough to start the array.

Manuelles Neuzusammenbauen md126:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=21 /dev/sdn1 /dev/sdai1 /dev/sdj1 /dev/sdo1 /dev/sdl1 /dev/sdaj1 /dev/sdy1 /dev/sdq1 /dev/sdan1 /dev/sdaa1 /dev/sdz1 /dev/sdac1 /dev/sdal1 /dev/sdf1 /dev/sdh1 /dev/sds1 missing /dev/sdag1 /dev/sdad1 /dev/sdv1 /dev/sdt1

-> GEHT! :-) -> md126 und DATA2 wieder da Ein Missing device, da kommt jetzt eine der neuen Spares rein.

85. Raid Recreate DATA2 2023-02-27 on Debian, md126 (Data2) ist bei ca. 50% im Grow hängen geblieben

44 Platten insgesamt

20 im DATA (alles gut) Grow von 22 auf 23 in DATA2

DATA2 wird nicht nach Reboot richtig gefunden, sondern als Raid0 erkannt. stoppen -> manuelles assemble:

mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 

klappt auch, Delta-Device erkannt. Rebuild läuft natürlich erstmal nicht an, da noch nicht gemountet. Mount klappt aber nicht (!) 100% CPU dabei, aber kein Fortschritt beim Rebuild, der noch laufende Mount scheint den Rebuild (richtigerweise) erstmal zu blocken. xfs_check läuft nicht, da der sagt, müsste erst gemountet werden. Versuch Assemble ohne neues Delta-Device:

mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing 

Geht nicht bei "nur" assemble mit "missing". Versuch ohne das Delta-Device (also erstmal wieder nur mit 22 Drives, wie vor dem Grow):

mdadm --assemble /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 

Macht er nicht mit der Fehlermeldung:

"mdadm: /dev/md126 assembled from 22 drives - not enough to start the array while not clean - consider --force."

Danach ist das komisch zusammengestellt: root@STORE2:/home/gagi# mdadm --detail /dev/md126 /dev/md126:

          Version : 1.2
       Raid Level : raid0
    Total Devices : 18
      Persistence : Superblock is persistent
            State : inactive
  Working Devices : 18
    Delta Devices : 1, (-1->0)
        New Level : raid6
       New Layout : left-symmetric
    New Chunksize : 64K
             Name : STORE2:126  (local to host STORE2)
             UUID : 2d2a484e:b89df4cb:a63eca33:fe22bcc5
           Events : 47096
   Number   Major   Minor   RaidDevice
      -      65        1        -        /dev/sdq1
      -       8        1        -        /dev/sda1
      -      66      129        -        /dev/sdao1
      -      66      113        -        /dev/sdan1
      -      66       65        -        /dev/sdak1
      -      66       49        -        /dev/sdaj1
      -      66       17        -        /dev/sdah1
      -      65      225        -        /dev/sdae1
      -      65      209        -        /dev/sdad1
      -      65      177        -        /dev/sdab1
      -      65      161        -        /dev/sdaa1
      -       8      209        -        /dev/sdn1
      -       8      161        -        /dev/sdk1
      -       8      145        -        /dev/sdj1
      -      65      129        -        /dev/sdy1
      -      65       81        -        /dev/sdv1
      -      65       33        -        /dev/sds1
      -       8       33        -        /dev/sdc1

Also wieder

mdadm --stop /dev/md126

Jetzt mit create aber OHNE missing, also nur für die alten 22 Drives:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=22 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 

OK, neues Array mit 22 Drives. Crypsetup klappt auch noch. Dann xfs_repair mit -n (keine Änderungen) -> findet keine Superblocks:

xfs_repair -n -v /dev/mapper/cr_md126

Phase 1 - find and verify superblock... bad primary superblock - bad magic number !!!

attempting to find secondary superblock... ..........................................

Mount funktioniert auch nicht (!!! :-( )

mount: /data2: wrong fs type, bad option, bad superblock on /dev/mapper/cr_md126, missing codepage or helper program, or other error. 

Stoppen:

mdadm --stop /dev/md126 
mdadm: Cannot get exclusive access to /dev/md126:Perhaps a running process, mounted filesystem or active volume group? 

-> Reboot, dann klappt auch stoppen (direkt ohne vorher was anderes zu machen wie crypsetup oder so)

Jetzt mit create aber MIT missing, also für die neuen 23 Drives:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing 

OK, geht, eine missing-device am Ende (logisch). xfs_check -n läuft aber zumindest mal los (also nicht mehr das superblock Problem) hat aber viele viele Fehler (!), die er aber wohl korrigieren würde/könnte (bisher nur simuliert, weil -n) Schlägt vorher Mounting vor wegen Journal-Einträgen usw.

mount /dev/mapper/cr_md126 /data2 
mount: /data2: mount(2) system call failed: Structure needs cleaning. 

Der Grow ist ja eben nur bis zur Hälfte durchgelaufen gewesen -> d.h. ein Array mit 23 Devices ist ja so (noch) nicht da gewesen (!) Wie kann man bei einem neu create eine halbes Delta-Device einbauen? Create mit SPARE drin und ohne --assume-clean -> evtl. wird Delta erkannt?

mdadm --create /dev/md127 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 

Ja, geht zwar, aber Delta nicht erkannt, ohne --assume-clean läuft dann ein resync an :-( Resync stoppen mit:

echo frozen > /sys/block/md127/md/sync_action 

xfs_check läuft wieder an (keine Superblock-Probleme) hat aber wieder viele viele Fehler (Grow war halt nicht fertig). Mount geht auch wieder nicht :-(

mount: /data2: can't read superblock on /dev/mapper/cr_md126. 

Dann nochmal das was noch am ehesten funktioniert hat:

mdadm --create --assume-clean /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 missing 

Und dann mit einen echten xfs_check, läuft sehr lange und bringt sehr sehr viele Fehlermeldungen (halber Grow) -> abgebrochen

Bringt so leider alles nix, Daten futsch !!! :-( Raid neu bauen und dann Backups von diversen Einzelplatte und von DATA wieder mühsam einspielen :-( Create neu ohne assume-clean und dann Sync:

mdadm --create /dev/md126 --chunk=64 --level=raid6 --layout=ls --raid-devices=23 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 

Verschlüsseln mit speziellen Paramtern für Hardware-Verschlüsselung:

cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md126 

Öffnen:

cryptsetup luksOpen /dev/md126 cr_md126  

(XFS Filesystem drauf:, in diesem Falle nicht getan)

mkfs.xfs /dev/mapper/cr_md126 

NEU: Wechsel auf Ext4:

mkfs.ext4 /dev/mapper/cr_md126 

Damit dann checkbar über:

e2fsck -v /dev/mapper/cr_md126 

Mounten:

mount /dev/mapper/cr_md126 /data2 

___________________________

Theoretische Idee für vor dem create: mit revert-reshape und --backup-file (NICHT gemacht, da das mal zu Datenverlust geführt hat!)

mdadm --assemble --update=revert-reshape /dev/md126 /dev/sds1 /dev/sdaj1 /dev/sdn1 /dev/sdt1 /dev/sdq1 /dev/sdak1 /dev/sdy1 /dev/sdv1 /dev/sdao1 /dev/sdab1 /dev/sdaa1 /dev/sdad1 /dev/sdan1 /dev/sdj1 /dev/sdl1 /dev/sdx1 /dev/sdk1 /dev/sdah1 /dev/sdae1 /dev/sdc1 /dev/sda1 /dev/sdp1 /dev/sdb1 --backup-file=/home/gagi/mda127backup2

Spare-Group einrichten

aktuelle Config in mdadm.conf schreiben

mdadm -D -s >> /etc/mdadm.conf 

spare-group ergänzen

nano /etc/mdadm.conf

ganz unten spare-group=shared ergänzen

ARRAY /dev/md/126 metadata=1.2 spares=1 name=store2:126 UUID=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx spare-group=shared

Raid-Baustatus

cat /proc/mdstat

automatisch jede Sekunde aktualisiert

watch -n 1 cat /proc/mdstat

Verschlüssel von Hand (ohne Yast2)

Verschlüsseln:

cryptsetup -v --key-size 256 luksFormat /dev/md125 

Mit speziellen Paramtern für Hardware-Verschlüsselung:

cryptsetup -v luksFormat --cipher aes-cbc-essiv:sha256 --key-size 256 /dev/md125

Öffnen:

cryptsetup luksOpen /dev/md125 cr_md125 

Filesystem drauf:

mkfs.xfs /dev/mapper/cr_md125 
store2:~ # mkfs.xfs /dev/mapper/cr_md125
meta-data=/dev/mapper/cr_md125   isize=256    agcount=36, agsize=268435424 blks
         =                       sectsz=512   attr=2, projid32bit=0
data     =                       bsize=4096   blocks=9523357168, imaxpct=5
         =                       sunit=16     swidth=208 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal log           bsize=4096   blocks=521728, version=2
         =                       sectsz=512   sunit=16 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
root@STORE2:/dev/mapper# mkfs.xfs -f /dev/mapper/cr_md126
meta-data=/dev/mapper/cr_md126   isize=512    agcount=47, agsize=268435424 blks
         =                       sectsz=4096  attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=0
data     =                       bsize=4096   blocks=12453071184, imaxpct=5
         =                       sunit=16     swidth=272 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=521728, version=2
         =                       sectsz=4096  sunit=1 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

Status:

cryptsetup luksDump /dev/md125

Grown

Festplatte vorbereiten

Open gdisk with the first hard drive:
$ gdisk /dev/sda 

and type the following commands at the prompt:

   Add a new partition: n
   Select the default partition number: Enter
   Use the default for the first sector: Enter
   For sda1 and sda2 type the appropriate size in MB (i.e. +100MB and +2048M). For sda3 just hit Enter to select the remainder of the disk.
   Select Linux RAID as the partition type: fd00
   Write the table to disk and exit: w 

Bad Blocks

Screen-Umgebung starten

screen -S bb
badblocks -vs -o sdy-badblock-test /dev/sdy

verbose, show progress, output-file (log) badblocks sucht nur nach bad blocks, zerstört aber keine Daten.


Detach

Strg-a d = detach

Reatach

screen -r bb

ODER Wieder reingehen

screen -x bb

Falls nötig, Hot Spare aus Raid rausnehmen

mdadm --remove /dev/md125 /dev/sdn1

Device zum Raid hinzufügen

mdadm --add /dev/md126 /dev/sdf1

Raid reshapen mit zusätzlichem Device (dauert ca. 3 volle Tage)

mdadm --grow --raid-devices=15 /dev/md126 --backup-file=/home/gagi/mda126backup

Set Faulty

mdadm --manage --set-faulty /dev/md126 /dev/sdj1 

um zu sehen, wer/was gerade Zugriff nimmt:

lsof /data 

Samba-Service beenden:

rcsmb stop 
systemctl stop smbd.service 

Unmounten:

umount /data 


XFS (Data)

XFS checken (ungemountet)

xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126 

eigentlich einfach

 xfs_repair /dev/mapper/cr_md126

Cryptcontainer wachsen

cryptsetup --verbose resize cr_md126 

Mounten:

mount /dev/mapper/cr_md126 /data2

XFS vergrößern

xfs_growfs /data2 

XFS checken (ungemountet)

xfs_repair -n -o bhash=1024 /dev/mapper/cr_md126 


Read-Only Mounten:

mount -o ro /dev/mapper/cr_md126 /data2

Samba-Freigabe

There's a bug in Samba in openSuse 11.4. Here's the workaround:

   go to Yast --> AppArmor --> Control Panel (on) --> Configure Profile Modes --> usr.sbin.smbd = complain
   go to Yast --> system --> runlevels --> smb=on + nmb=on
   reboot

Direkte Netwerkverbindung Store1 <-> Store 2.0

du kannst auch mal schauen was in /etc/udev/rules.d/70-persistent-net... (oder wie auch immer die date heißt) steht.

da wird die mac einer bestimmten netzwerkadresse (eth0, eth1, ...) zugewiesen.

die datei kannst du auch löschen oder verschieben - wird beim neustart neu angelegt.

da kommt machmal was durcheinander - bei 'nem kernelupdate oder bios-update.

GEHT ! unterschiedliche subnets (192.168.2.100 und 192.168.2.102)

Fast-Copy

1.) Empfänger (Store2.0)

cd <Zielverzeichnis> 
netcat -l -p 4323 | gunzip | cpio -i -d -m 

2.) Sender (Store)

cd <Quellverzeichnis>
find . -type f | cpio -p | gzip -1 | netcat 192.168.2.102 4323





1.) Empfänger (Store2.0)

socat tcp4-listen:4323 stdout | tar xvpf - /data/eBooks

2.) Sender (Store)

tar cvf - /data/eBooks | socat stdin tcp4:192.168.2.102:4323 


Test mit Fortschrittsanzeige bei bekannter Datengröße:

1.) Empfänger (Store2.0)

cd <Zielverzeichnis> 
socat tcp4-listen:4323 stdout | pv -s 93G | tar xvpf -

2.) Sender (Store)

cd <Quellverzeichnis> 
tar cvf - * | pv -s 93G | socat stdin tcp4:192.168.2.102:4323


dd if=/dev/sdl | bar -s 1.5T | dd of=/dev/sdw

FileBot Renamer Linux

filebot -rename -get-subtitles -non-strict /data/Downloads/Fertig/ --output /data/Downloads/Fertig/FileBot/ --format "{n}/Season {s}/{n}.{s00e00}.{t}" --db TheTVDB 
filebot -get-missing-subtitles -non-strict -r --lang en /data/Downloads/Fertig/FileBot/ 
filebot -script fn:replace --conflict override --def "e=.eng.srt" "r=.srt" /data/Downloads/Fertig/FileBot/

RemoteDesktop ArchLinux Client

z.B. auf Busfahrer: 
rdesktop -g 1440x900 -P -z  -x l -r sound:off -u gagi 192.168.1.149

Backplane-Rotation zur Fehlerdiagnose

Urzustand mit 24 Platten 2013-11-12

/dev/sdx -> 00 : 00000000000000 (1TB) 31��C
/dev/sdp -> 01 : WD-WCC070299387 (3TB WD) 31��C
/dev/sdq -> 03 : MJ1311YNG3SSLA (3TB) 33��C
/dev/sdr -> 05 : MJ1311YNG3NZ3A (3TB) 32��C
/dev/sds -> 07 : MJ1311YNG4J48A (3TB) 32��C
/dev/sdt -> 09 : MJ1311YNG3UUPA (3TB) 33��C
/dev/sdu -> 11 : MJ1311YNG3SAMA (3TB) 32��C
/dev/sdv -> 13 : MJ1311YNG3SU1A (3TB) 34��C
/dev/sdw -> 15 : MCE9215Q0AUYTW (3TB Toshiba neu) 31��C
/dev/sdh -> 16 : MJ0351YNGA02YA (3TB) nicht im Einsatz, bb-check 2013-08-28 37��C
/dev/sdi -> 18 : MJ1311YNG3Y4SA (3TB) 40��C
/dev/sdj -> 20 : WD-WCAWZ1881335 (3TB WD) hot spare 38��C
/dev/sdk -> 22 : WD-WCAWZ2279670 (3TB WD) 41��C
/dev/sdl -> 24 : MJ1311YNG25Z6A (3TB) 39��C
/dev/sdm -> 26 : MJ1311YNG3RM5A (3TB) 39��C
/dev/sdn -> 28 : MJ1311YNG3NT5A (3TB) 40��C
/dev/sdo -> 30 : MCM9215Q0B9LSY (3TB Toshiba neu) 38��C
/dev/sda -> 31 : 234BGY0GS (3TB Toshiba neu) 40��C
/dev/sdb -> 33 : MJ1311YNG3WZVA (3TB) 43��C
/dev/sdc -> 35 : MJ1311YNG3SYKA (3TB) 42��C
/dev/sdd -> 37 : WD-WCC070198169 (3TB WD) 41��C
/dev/sde -> 39 : MJ1311YNG3RZTA (3TB) 39��C
/dev/sdf -> 41 : MJ1311YNG3LTRA (3TB) 39��C
/dev/sdg -> 43 : MJ1311YNG38VGA (3TB) 39��C
Insgesamt 24 Platten gefunden.

Crashes

ArchLinux 2011-09-09

Sep  9 18:20:04 localhost kernel: [156439.479947] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.480035] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.486612] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.503656] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:20:04 localhost kernel: [156439.504562] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
Sep  9 18:34:11 localhost -- MARK --
Sep  9 18:42:42 localhost kernel: [157797.911330] r8169: eth0: link up
Sep  9 18:54:11 localhost -- MARK --
Sep  9 19:14:11 localhost -- MARK --
Sep  9 19:34:11 localhost -- MARK --
Sep  9 19:54:11 localhost -- MARK --
Sep  9 20:14:11 localhost -- MARK --
Sep  9 20:27:32 localhost kernel: [164086.971566] r8169: eth0: link up
Sep  9 20:27:42 localhost kernel: [164097.580071] r8169: eth0: link up
Sep  9 20:27:50 localhost kernel: [164105.391755] r8169: eth0: link up
Sep  9 20:27:51 localhost kernel: [164106.272019] r8169: eth0: link up
Sep  9 20:28:12 localhost kernel: [164127.150062] r8169: eth0: link up
Sep  9 20:28:22 localhost kernel: [164137.941304] r8169: eth0: link up
Sep  9 20:28:33 localhost kernel: [164148.890097] r8169: eth0: link up
Sep  9 20:28:38 localhost kernel: [164153.080536] r8169: eth0: link up
Sep  9 20:28:58 localhost kernel: [164173.790064] r8169: eth0: link up
Sep  9 20:42:19 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Sep  9 20:42:19 localhost kernel: [    0.000000] Initializing cgroup subsys cpu
Sep  9 20:42:19 localhost kernel: [    0.000000] Linux version 2.6.32-lts (tobias@T-POWA-LX) (gcc version 4.6.1 20110819    (prerelease) (GCC) ) #1 SMP Tue Aug 30 08:59:44 CEST 2011
Sep  9 20:42:19 localhost kernel: [    0.000000] Command line: root=/dev/disk/by-uuid/ba47ea9a-c24c-4dc6-a9a2-ca3b442bdbfc ro vga=0x31B
Sep  9 20:42:19 localhost kernel: [    0.000000] KERNEL supported cpus:
Sep  9 20:42:19 localhost kernel: [    0.000000]   Intel GenuineIntel
Sep  9 20:42:19 localhost kernel: [    0.000000]   AMD AuthenticAMD
Sep  9 20:42:19 localhost kernel: [    0.000000]   Centaur CentaurHauls

OpenSuse 2011-09-26

Sep 26 23:15:59 store2 su: (to nobody) root on none
Sep 26 23:17:17  su: last message repeated 2 times
Sep 26 23:25:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 162
Sep 26 23:25:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166
Sep 26 23:25:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166
Sep 26 23:25:36 store2 smartd[4617]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 171 to 166
Sep 26 23:25:37 store2 smartd[4617]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187
Sep 26 23:55:22 store2 smartd[4617]: Device: /dev/sdb [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 96
Sep 26 23:55:23 store2 smartd[4617]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 166
Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 26 23:55:26 store2 smartd[4617]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171
Sep 26 23:55:29 store2 smartd[4617]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 166 to 171
Sep 26 23:55:32 store2 smartd[4617]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 98
Sep 27 00:55:26 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.

OpenSuse2011-09-27

Sep 27 16:35:17 store2 smbd[29588]: [2011/09/27 16:35:17.391212,  0] param/loadparm.c:8445(check_usershare_stat)
Sep 27 16:35:17 store2 smbd[29588]:   check_usershare_stat: file /var/lib/samba/usershares/ owned by uid 0 is not a regular file
Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795153,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:44:06 store2 smbd[29163]: [2011/09/27 16:44:06.795341,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795323,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:44:06 store2 smbd[29163]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795368,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:44:06 store2 smbd[29163]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:44:06 store2 smbd[29597]: [2011/09/27 16:44:06.795422,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:44:06 store2 smbd[29597]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:44:06 store2 smbd[29597]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:44:06 store2 smbd[29592]: [2011/09/27 16:44:06.795468,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:44:06 store2 smbd[29592]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:44:06 store2 smbd[29592]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499038,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499082,  0] lib/util_sock.c:474(read_fd_with_timeout)
Sep 27 16:45:42 store2 smbd[29593]: [2011/09/27 16:45:42.499174,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:45:42 store2 smbd[29585]: [2011/09/27 16:45:42.499174,  0] lib/util_sock.c:1441(get_peer_addr_internal)
Sep 27 16:45:42 store2 smbd[29593]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:45:42 store2 smbd[29585]:   getpeername failed. Error was Der Socket ist nicht verbunden
Sep 27 16:45:42 store2 smbd[29593]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 16:45:42 store2 smbd[29585]:   read_fd_with_timeout: client 0.0.0.0 read error = Die Verbindung wurde vom Kommunikationspartner zurückgesetzt.
Sep 27 19:35:14 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.

OpenSuse 2011-09-29

während kräftigem Copyjob von Store

Sep 29 23:16:19  su: last message repeated 2 times
Sep 29 23:28:41 store2 smartd[4624]: Device: /dev/sdb [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 29 23:28:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 153 to 157
Sep 29 23:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 29 23:28:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157
Sep 29 23:28:57 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Sep 29 23:58:44 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 29 23:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 29 23:58:53 store2 smartd[4624]: Device: /dev/sdk [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 29 23:58:57 store2 smartd[4624]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193
Sep 29 23:58:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176
Sep 29 23:59:02 store2 smartd[4624]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Sep 30 00:28:41 store2 smartd[4624]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 187 to 193
Sep 30 00:28:43 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 00:28:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 00:28:58 store2 smartd[4624]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Sep 30 00:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 00:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 00:58:59 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 01:28:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 30 01:28:50 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 01:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157
Sep 30 01:59:00 store2 smartd[4624]: Device: /dev/sdp [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:28:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 02:28:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 157 to 162
Sep 30 02:28:48 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 02:28:52 store2 smartd[4624]: Device: /dev/sdi [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:45 store2 smartd[4624]: Device: /dev/sdd [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:46 store2 smartd[4624]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 162 to 157 
Sep 30 02:58:47 store2 smartd[4624]: Device: /dev/sdf [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 99 to 100
Sep 30 02:58:49 store2 smartd[4624]: Device: /dev/sdh [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 100 to 99
Sep 30 09:39:22 store2 kernel: imklog 5.6.5, log source = /proc/kmsg started.

What you are seeing are the Normalized Attribute values changing.

For example when the Raw_Read_Error_Rate changed from 99 to 100, the increase in Normalized value from 99 to 100 means that the disk now thinks it is a bit LESS likely to fail than before, because this Normalized value is moving further above the (low) Threshold value.

ArchLinux 2011-10-17

Oct 17 21:21:35 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176
Oct 17 21:21:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 176
Oct 17 21:21:45 localhost smartd[1941]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206
Oct 17 21:30:03 localhost -- MARK --
Oct 17 21:50:03 localhost -- MARK --
Oct 17 21:51:37 localhost smartd[1941]: Device: /dev/sde [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Oct 17 21:51:41 localhost smartd[1941]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 181 to 187
Oct 17 22:10:03 localhost -- MARK --
Oct 17 22:21:34 localhost smartd[1941]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 176 to 181
Oct 17 22:21:47 localhost smartd[1941]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214
Oct 17 22:21:49 localhost smartd[1941]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 214
Oct 17 22:30:03 localhost -- MARK --
Oct 17 22:50:03 localhost -- MARK --
Oct 17 23:11:18 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Oct 17 23:11:18 localhost kernel: [    0.000000] Initializing cgroup subsys cpu

ArchLinux 2011-11-06

Nov  6 12:39:05 localhost -- MARK --
Nov  6 12:42:18 localhost smartd[1927]: Device: /dev/sdi [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 200
Nov  6 12:42:20 localhost smartd[1927]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 193 to 187
Nov  6 12:42:24 localhost smartd[1927]: Device: /dev/sdn [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 222 to 214
Nov  6 12:42:25 localhost smartd[1927]: Device: /dev/sdo [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 222
Nov  6 12:42:26 localhost smartd[1927]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 214 to 222
Nov  6 12:59:05 localhost -- MARK --
Nov  6 14:29:21 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Nov  6 14:29:21 localhost kernel: [    0.000000] Initializing cgroup subsys cpu
Nov  6 14:29:21 localhost kernel: [    0.000000] Linux version 3.0-ARCH (tobias@T-POWA-LX) (gcc version 4.6.1 20110819 (prerelease) (GCC) ) #1 SMP PREEMPT Wed Oct$
Nov  6 14:29:21 localhost kernel: [    0.000000] Command line: root=/dev/disk/by-id/ata-Hitachi_HCS5C1016CLA382_JC0150HT0J7TPC-part3 ro
Nov  6 14:29:21 localhost kernel: [    0.000000] BIOS-provided physical RAM map: 

EINFACH SO!

ArchLinux 2011-11-21

Dabei war vorher ein Systemupdate gelaufen (inklusive neuem Kernel), aber noch nicht rebootet.

Nov 21 09:30:27 localhost smartd[2208]: Device: /dev/sdj [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 206
Nov 21 09:30:30 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250
Nov 21 09:30:31 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240
Nov 21 09:30:35 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 230 to 240
Nov 21 09:43:32 localhost kernel: [1280595.864622] ------------[ cut here ]------------
Nov 21 09:43:32 localhost kernel: [1280595.864636] WARNING: at drivers/gpu/drm/i915/i915_irq.c:649 ironlake_irq_handler+0x1102/0x1110 [i915]()
Nov 21 09:43:32 localhost kernel: [1280595.864638] Hardware name: H61M-S2V-B3
Nov 21 09:43:32 localhost kernel: [1280595.864639] Missed a PM interrupt
Nov 21 09:43:32 localhost kernel: [1280595.864640] Modules linked in: xfs sha256_generic dm_crypt dm_mod raid456 async_raid6_recov async_pq raid6_pq async_xor xor async_memcpy async_tx md_mod coretemp nfsd exportfs nfs lockd fscache  auth_rpcgss nfs_acl sunrpc ipv6 ext2 sr_mod cdrom snd_hda_codec_realtek usb_storage uas sg evdev snd_hda_intel snd_hda_codec iTCO_wdt snd_hwdep snd_pcm snd_timer i915 snd drm_kms_helper drm pcspkr i2c_algo_bit r8169 ppdev i2c_i801 shp chp parport_pc intel_agp i2c_core pci_hotplug parport intel_gtt mei(C) soundcore snd_page_alloc processor button mii iTCO_vendor_support video aesni_intel cryptd aes_x86_64 aes_generic ext4 mbcache jbd2 crc16 usbhid hid sd_mod sata_sil24 ahci libahci libata scsi_mod ehci_hcd usbcore
Nov 21 09:43:32 localhost kernel: [1280595.864674] Pid: 0, comm: swapper Tainted: G         C  3.0-ARCH #1
Nov 21 09:43:32 localhost kernel: [1280595.864675] Call Trace:
Nov 21 09:43:32 localhost kernel: [1280595.864676]  <IRQ>  [<ffffffff8105c76f>] warn_slowpath_common+0x7f/0xc0
Nov 21 09:43:32 localhost kernel: [1280595.864684]  [<ffffffff8105c866>] warn_slowpath_fmt+0x46/0x50
Nov 21 09:43:32 localhost kernel: [1280595.864688]  [<ffffffff81078f7d>] ? queue_work+0x5d/0x70
Nov 21 09:43:32 localhost kernel: [1280595.864693]  [<ffffffffa0235a22>] ironlake_irq_handler+0x1102/0x1110 [i915]
Nov 21 09:43:32 localhost kernel: [1280595.864696]  [<ffffffff812a4bc5>] ? dma_issue_pending_all+0x95/0xa0
Nov 21 09:43:32 localhost kernel: [1280595.864699]  [<ffffffff81333db1>] ? net_rx_action+0x131/0x300
Nov 21 09:43:32 localhost kernel: [1280595.864702]  [<ffffffff810bf835>] handle_irq_event_percpu+0x75/0x2a0
Nov 21 09:43:32 localhost kernel: [1280595.864705]  [<ffffffff810bfaa5>] handle_irq_event+0x45/0x70
Nov 21 09:43:32 localhost kernel: [1280595.864707]  [<ffffffff810c21af>] handle_edge_irq+0x6f/0x120
Nov 21 09:43:32 localhost kernel: [1280595.864710]  [<ffffffff8100d9f2>] handle_irq+0x22/0x40
Nov 21 09:43:32 localhost kernel: [1280595.864712]  [<ffffffff813f66aa>] do_IRQ+0x5a/0xe0
Nov 21 09:43:32 localhost kernel: [1280595.864715]  [<ffffffff813f4393>] common_interrupt+0x13/0x13
Nov 21 09:43:32 localhost kernel: [1280595.864716]  <EOI>  [<ffffffff81273cdb>] ? intel_idle+0xcb/0x120
Nov 21 09:43:32 localhost kernel: [1280595.864720]  [<ffffffff81273cbd>] ? intel_idle+0xad/0x120
Nov 21 09:43:32 localhost kernel: [1280595.864723]  [<ffffffff81313d9d>] cpuidle_idle_call+0x9d/0x350
Nov 21 09:43:32 localhost kernel: [1280595.864726]  [<ffffffff8100a21a>] cpu_idle+0xba/0x100
Nov 21 09:43:32 localhost kernel: [1280595.864729]  [<ffffffff813d1eb2>] rest_init+0x96/0xa4
Nov 21 09:43:32 localhost kernel: [1280595.864731]  [<ffffffff81748c23>] start_kernel+0x3de/0x3eb
Nov 21 09:43:32 localhost kernel: [1280595.864733]  [<ffffffff81748347>] x86_64_start_reservations+0x132/0x136
Nov 21 09:43:32 localhost kernel: [1280595.864735]  [<ffffffff81748140>] ? early_idt_handlers+0x140/0x140
Nov 21 09:43:32 localhost kernel: [1280595.864737]  [<ffffffff8174844d>] x86_64_start_kernel+0x102/0x111
Nov 21 09:43:32 localhost kernel: [1280595.864738] ---[ end trace 01037f4ec3ec4ee5 ]---
Nov 21 10:00:16 localhost smartd[2208]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200
Nov 21 10:00:18 localhost smartd[2208]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 200 to 193
Nov 21 10:00:19 localhost smartd[2208]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200
Nov 21 10:00:23 localhost smartd[2208]: Device: /dev/sdg [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 206 to 200
Nov 21 10:00:29 localhost smartd[2208]: Device: /dev/sdl [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 250 to 240
Nov 21 10:00:30 localhost smartd[2208]: Device: /dev/sdm [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250
Nov 21 10:00:33 localhost smartd[2208]: Device: /dev/sdp [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 230
Nov 21 10:00:34 localhost smartd[2208]: Device: /dev/sdq [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 240 to 250
Nov 21 11:52:01 localhost kernel: [    0.000000] Initializing cgroup subsys cpuset
Nov 21 11:52:01 localhost kernel: [    0.000000] Initializing cgroup subsys cpu