• Opret dig
  • Glemt adgangskode

User account menu

  • Artikler
  • Forside
  • Forum
  • Nyheder
  • Log ind
Hjem
LinuxIN.dk

Snak med

Opret dig!

Af mobay | 01.09.2010 10:31

Linux software RAID5 på Wester Digital Sharespace

Hjælp generelt
Hej med jer.

Jeg kunne virkelig godt bruge noget hjælp.

Jeg har en Western Digital Sharespace (NAS enhed) som kører linux.

På denne ligger 4 x 2 TB diske som kører et RAID 5. (blandt andet)

NAS'en fik en uventet lukning (nok pga. strøm udfald) og nu er software raided begyndt at brokke sig. Det vil ihvertfald ikke starte.

Først kørt en: $ cat proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid5]
md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1044160 blocks [4/4] [UUUU]
md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
208768 blocks [4/4] [UUUU]


Som viser jeg mangler min md2.

Herefter har jeg assembled mine diske ud fra UUID.

mdadm -Af /dev/md2 --uuid=a82361dc:a985afbc:90270140:8210d33f /dev/sd*


herefter viser den mig:

/ $ cat proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1044160 blocks [4/4] [UUUU]

md2 : inactive sda4[0] sdd4[3] sdc4[2] sdb4[1]
7808392960 blocks
md0 : active raid1 sdd1[3] sdc1[2] sdb1[1] sda1[0]
208768 blocks [4/4] [UUUU]


Her er mit raid med en mdadm -D /dev/md2


/ $ mdadm -D /dev/md2
/dev/md2:
Version : 00.90.01
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Persistence : Superblock is persistent

Update Time : Sun Aug 29 01:53:27 2010
State : active, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

UUID : a82361dc:a985afbc:90270140:8210d33f
Events : 0.2913628

Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 8 20 1 active sync /dev/sdb4
2 0 0 2 removed
3 8 52 3 active sync /dev/sdd4
/ $



Her er mine diske:

/ $ mdadm -E dev/sda4
dev/sda4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Sun Aug 29 01:53:27 2010
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 196a5cfc - correct
Events : 0.2913628

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 0 8 4 0 active sync /dev/sda4

0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $



/ $ mdadm -E dev/sdb4
dev/sdb4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Sun Aug 29 01:53:27 2010
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 196a5d0e - correct
Events : 0.2913628

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 1 8 20 1 active sync /dev/sdb4

0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $


/ $ mdadm -E dev/sdc4
dev/sdc4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Sun Aug 29 01:53:12 2010
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 1996d268 - correct
Events : 0.2913625

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 2 8 36 2 active sync /dev/sdc4

0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $



/ $ mdadm -E dev/sdd4
dev/sdd4:
Magic : a92b4efc
Version : 00.90.00
UUID : a82361dc:a985afbc:90270140:8210d33f
Creation Time : Fri Jan 29 04:46:33 2010
Raid Level : raid5
Device Size : 1951708608 (1861.29 GiB 1998.55 GB)
Array Size : 5855125824 (5583.88 GiB 5995.65 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2

Update Time : Sun Aug 29 01:53:27 2010
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 196a5d32 - correct
Events : 0.2913628

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 3 8 52 3 active sync /dev/sdd4

0 0 8 4 0 active sync /dev/sda4
1 1 8 20 1 active sync /dev/sdb4
2 2 8 36 2 active sync /dev/sdc4
3 3 8 52 3 active sync /dev/sdd4
/ $



Når jeg prøver at starte array'et får jeg denne fejl:

/ $ mdadm --run dev/md2
mdadm: failed to run array dev/md2: Invalid argument



svar fra dmsg når jeg prøver at kører en --run

md: pers->run() failed ...
md: md2 stopped.
md: unbind
md: export_rdev(sda4)
md: unbind
md: export_rdev(sdd4)
md: unbind
md: export_rdev(sdb4)
md: md2 stopped.
md: bind
md: bind
md: bind
md: bind
md: kicking non-fresh sdc4 from array!
md: unbind
md: export_rdev(sdc4)
md: md2: raid array is not clean -- starting background reconstruction
raid5: device sda4 operational as raid disk 0
raid5: device sdd4 operational as raid disk 3
raid5: device sdb4 operational as raid disk 1
raid5: cannot start dirty degraded array for md2
RAID5 conf printout:
--- rd:4 wd:3 fd:1
disk 0, o:1, dev:sda4
disk 1, o:1, dev:sdb4
disk 3, o:1, dev:sdd4
raid5: failed to run raid set md2
md: pers->run() failed ...
/dev $ mdadm --monitor /dev/md2



Så fejlen er : raid5: cannot start dirty degraded array for md2

Hvordan får jeg gang i mit RAID igen? 3 ud af 4 diske burde jo være nok?

Læse noget med man kunne snyde den til at starte et dirty raid op. Således:

[root@ornery ~]# cat /sys/block/md0/md/array_state
inactive
[root@ornery ~]# echo "clean" > /sys/block/md0/md/array_state
[root@ornery ~]# cat /sys/block/md0/md/array_state
clean
[root@ornery ~]# cat /proc/mdstat


Men ovenstående kan jeg ikke finde ud af, jeg kan nemlig ikke finde nogen sys/block mappe i mit filsystem. Er der nogen som ved hvor det kunne ligge?

Mit root filsystem ser sådan ud hvis det kan hjælpe lidt.

CacheVolume
dev
mnt
proto
trustees
Configuration
etc
nfs
root
twonky
DataVolume
lib
old
sbin
usr
ExtendVolume
linuxrc
opt
shares
var
bin
lost+found
proc
tmp
  • Log ind eller opret dig for at tilføje kommentarer

Kommentarer2

# 1

14 år 10 måneder siden

Permalink

Indsendt af lbm den 2. september 2010 kl. 10:07

Permalink

Måske dette er bedre

Måske dette er bedre ?

http://www.tampabaycomputing.com/blog/raid5-cannot-start-dirty-degraded…
  • Log ind eller opret dig for at tilføje kommentarer

# 2

14 år 10 måneder siden

Permalink

Indsendt af mobay den 2. september 2010 kl. 15:00

Permalink

Tak for svaret.
Har været

Tak for svaret.

Har været forbi det link før jeg postede her.

Det har været en no go at få noget som helst til at assemble og kører på selve Western digital NAS boksen.

Men men, har i mellemtiden installeret en ubunto desktop på en PC vi havde stående og smidt harddiskene fra NAS'en over i denne pc.

På denne maskine kunne vi force assemble RAID'ed og det er nu igang med at rebuilde. Så forbåbenligt kan vi snart få nogle data ud :-)

Jeg mistænker WD NAS'en for at kører med en specielt distro som har en lidt buggy / begrændset RAID kode i sig. Hvilket nok har gjort den ikke vil assemble.

Men har lige et spørgsmål mere?

Er det normalt at der ikke ligger et partitions info på RAID diske?

f.eks. fdisk -l md2 skriver at der ikke findes nogle partitioner på enheden?
Hvordan virker sådan noget i forbindelse med RAID? Tror du den har mistet sin partitions info?
  • Log ind eller opret dig for at tilføje kommentarer

Svar søges

llumos Unix-operativsystem, 0
Den er go 0
14. februar = I Love Free Software Day 0
Lokal fil-deling - for de dovne. 0
Linux fra begynder til professionel af O'Reilly 0

Seneste aktivitet

En snak om Linux-kompatibel software 3
Nulstilling af adgangskode 6
Virtuel maskine? 2
PCLinuxOS 27
Gode anmeldelser Zorin OS 17.3 3
Open Source-eksperimentet 3
"Intet realistisk alternativ" - mig i r*ven 15
Ingen Mint 5
Linux App Store Flathub når 3 milliarder downloads 2
Digitaliseringsministeriet sætter gang i pilotprojekt om digital suverænitet 3
Mest sikker webbrowser 5
Firefox 2
Privatbeskeder 7
Backup/synkronisering? 3
BigLinux 5
Chatgpt satire 1
Læsning af databasefil i Firefox 2
Vanilla OS 15
Pepsi Challenge 4
Linuxin er nu migreret til Drupal 11 13

© 2025 Linuxin og de respektive skribenter

Oprettet og drevet af nørder siden 2004 !