Linux software RAID5 på Wester Digital Sharespace
Hej med jer.
Jeg kunne virkelig godt bruge noget hjælp.
Jeg har en Western Digital Sharespace (NAS enhed) som kører linux.
På denne ligger 4 x 2 TB diske som kører et RAID 5. (blandt andet)
NAS'en fik en uventet lukning (nok pga. strøm udfald) og nu er software raided begyndt at brokke sig. Det vil ihvertfald ikke starte.
Først kørt en: $ cat proc/mdstat
Som viser jeg mangler min md2.
Herefter har jeg assembled mine diske ud fra UUID.
herefter viser den mig:
Her er mit raid med en mdadm -D /dev/md2
Her er mine diske:
Når jeg prøver at starte array'et får jeg denne fejl:
svar fra dmsg når jeg prøver at kører en --run
Så fejlen er : raid5: cannot start dirty degraded array for md2
Hvordan får jeg gang i mit RAID igen? 3 ud af 4 diske burde jo være nok?
Læse noget med man kunne snyde den til at starte et dirty raid op. Således:
Men ovenstående kan jeg ikke finde ud af, jeg kan nemlig ikke finde nogen sys/block mappe i mit filsystem. Er der nogen som ved hvor det kunne ligge?
Mit root filsystem ser sådan ud hvis det kan hjælpe lidt.
Jeg kunne virkelig godt bruge noget hjælp.
Jeg har en Western Digital Sharespace (NAS enhed) som kører linux.
På denne ligger 4 x 2 TB diske som kører et RAID 5. (blandt andet)
NAS'en fik en uventet lukning (nok pga. strøm udfald) og nu er software raided begyndt at brokke sig. Det vil ihvertfald ikke starte.
Først kørt en: $ cat proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1044160 blocks [4/4] [UUUU]
md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
208768 blocks [4/4] [UUUU]
Som viser jeg mangler min md2.
Herefter har jeg assembled mine diske ud fra UUID.
mdadm -Af /dev/md2 --uuid=a82361dc:a985afbc:90270140:8210d33f /dev/sd*
herefter viser den mig:
/ $ cat proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1044160 blocks [4/4] [UUUU]
md2 : inactive sda4[0] sdd4[3] sdc4[2] sdb4[1]
7808392960 blocks
md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
208768 blocks [4/4] [UUUU]
Her er mit raid med en mdadm -D /dev/md2
/ $ mdadm -D /dev/md2
/dev/md2:
Version : 00.90.01
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Sun Aug 29 01:53:27 2010
State : active, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : a82361dc:a985afbc:90270140:8210d33f
Events : 0.2913628
Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 8 20 1 active sync /dev/sdb4
2 0 0 2 removed
3 8 52 3 active sync /dev/sdd4
/ $
Her er mine diske:
/ $ mdadm -E dev/sda4
dev/sda4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2
Update Time : Sun Aug 29 01:53:27 2010
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 196a5cfc - correct
Events : 0.2913628
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 4 0 active sync /dev/sda4
0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $
/ $ mdadm -E dev/sdb4
dev/sdb4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2
Update Time : Sun Aug 29 01:53:27 2010
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 196a5d0e - correct
Events : 0.2913628
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 20 1 active sync /dev/sdb4
0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $
/ $ mdadm -E dev/sdc4
dev/sdc4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2
Update Time : Sun Aug 29 01:53:12 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 1996d268 - correct
Events : 0.2913625
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 36 2 active sync /dev/sdc4
0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $
/ $ mdadm -E dev/sdd4
dev/sdd4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2
Update Time : Sun Aug 29 01:53:27 2010
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 196a5d32 - correct
Events : 0.2913628
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 52 3 active sync /dev/sdd4
0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $
Når jeg prøver at starte array'et får jeg denne fejl:
/ $ mdadm --run dev/md2
mdadm: failed to run array dev/md2: Invalid argument
svar fra dmsg når jeg prøver at kører en --run
md: pers->run() failed ...
md: md2 stopped.
md: unbind
md: export_rdev(sda4)
md: unbind
md: export_rdev(sdd4)
md: unbind
md: export_rdev(sdb4)
md: md2 stopped.
md: bind
md: bind
md: bind
md: bind
md: kicking non-fresh sdc4 from array!
md: unbind
md: export_rdev(sdc4)
md: md2: raid array is not clean -- starting background reconstruction
raid5: device sda4 operational as raid disk 0
raid5: device sdd4 operational as raid disk 3
raid5: device sdb4 operational as raid disk 1
raid5: cannot start dirty degraded array for md2
RAID5 conf printout:
--- rd:4 wd:3 fd:1
disk 0, o:1, dev:sda4
disk 1, o:1, dev:sdb4
disk 3, o:1, dev:sdd4
raid5: failed to run raid set md2
md: pers->run() failed ...
/dev $ mdadm --monitor /dev/md2
Så fejlen er : raid5: cannot start dirty degraded array for md2
Hvordan får jeg gang i mit RAID igen? 3 ud af 4 diske burde jo være nok?
Læse noget med man kunne snyde den til at starte et dirty raid op. Således:
[root@ornery ~]# cat /sys/block/md0/md/array_state
inactive
[root@ornery ~]# echo "clean" > /sys/block/md0/md/array_state
[root@ornery ~]# cat /sys/block/md0/md/array_state
clean
[root@ornery ~]# cat /proc/mdstat
Men ovenstående kan jeg ikke finde ud af, jeg kan nemlig ikke finde nogen sys/block mappe i mit filsystem. Er der nogen som ved hvor det kunne ligge?
Mit root filsystem ser sådan ud hvis det kan hjælpe lidt.
CacheVolume
dev
mnt
proto
trustees
Configuration
etc
nfs
root
twonky
DataVolume
lib
old
sbin
usr
ExtendVolume
linuxrc
opt
shares
var
bin
lost+found
proc
tmp
Kommentarer2
Måske dette er bedre
http://www.tampabaycomputing.com/blog/raid5-cannot-start-dirty-degraded…
Tak for svaret.
Har været
Har været forbi det link før jeg postede her.
Det har været en no go at få noget som helst til at assemble og kører på selve Western digital NAS boksen.
Men men, har i mellemtiden installeret en ubunto desktop på en PC vi havde stående og smidt harddiskene fra NAS'en over i denne pc.
På denne maskine kunne vi force assemble RAID'ed og det er nu igang med at rebuilde. Så forbåbenligt kan vi snart få nogle data ud :-)
Jeg mistænker WD NAS'en for at kører med en specielt distro som har en lidt buggy / begrændset RAID kode i sig. Hvilket nok har gjort den ikke vil assemble.
Men har lige et spørgsmål mere?
Er det normalt at der ikke ligger et partitions info på RAID diske?
f.eks. fdisk -l md2 skriver at der ikke findes nogle partitioner på enheden?
Hvordan virker sådan noget i forbindelse med RAID? Tror du den har mistet sin partitions info?