mdadm short blog
Moin,
mal wieder was in kurz
auf nem server hat sich irgendwie das mdadm raid 5 mit 7 Festplatten zerlegt, das raid wurde unter cat /proc/mdstat als inactive angezeigt und eine platte hatte sich ausgehängt. Im normalfall sollte man ja einfach die platte aushängen und wieder einhängen
mdadm -r /dev/md1 /dev/sdg2
mdadm -a /dev/md1 /dev/sdg2
danach sollte das raid ja wieder syncen was es nicht macht (warum auch immer), des r5 bleibt inactive. Also hardcore…
mdadm -S /dev/md1
mdadm --create --verbose /dev/md1 --level=5 --raid-devices=7 /dev/sd[abcdefg]2
den kommt des mdadm mal auf die idee das raid wieder zusammen zu bauen, dabei bemerkt es das da ja schon son raid ist, und baut diesen wieder richtig zusammen - wenn alles gut geht ;)
am morgen danach gleich mal nachgeschaut
~ # mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Mon Aug 26 17:48:38 2013
Raid Level : raid5
Array Size : 17578432512 (16764.10 GiB 18000.31 GB)
Used Dev Size : 2929738752 (2794.02 GiB 3000.05 GB)
Raid Devices : 7
Total Devices : 7
Persistence : Superblock is persistent
Update Time : Mon Aug 26 22:03:33 2013
State : clean, FAILED
Active Devices : 5
Working Devices : 6
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : rescue:1 (local to host rescue)
UUID : 230aa8c2:3ac80b3f:6ff3fd23:925125f5
Events : 8
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
3 8 50 3 active sync /dev/sdd2
4 8 66 4 active sync /dev/sde2
5 8 82 5 active sync /dev/sdf2
6 0 0 6 removed
0 8 2 - faulty spare /dev/sda2
7 8 98 - spare /dev/sdg2
dafuq? sda2 soll defekt sein? un sdg2 spare ? gut das ganze nochmal, nun findet vgscan und lvs auch wieder meine lvm’s - ist aber der meinung das der superblock auf dem root lvm wohl fritte wäre - den kann man ja zum glück mal neuschreiben.
fsck.ext4 /dev/vg0/root
danach sollte man umbedingt mal nach lost+found schauen