PDA

Bekijk Volledige Versie : Restore SW Raid server op non SW Raid server



bibawa
13/10/16, 15:37
Collega's,

Ik zit met een prangende vraag waar ik niet omheen geraak..
We hebben een server gebackupt in R1Soft, deze source server had een software raid set over 2 disken (RAID1). Nu hebben we deze bare metal gerestored op een VPS, uiteraard met maar 1 disk en geen SWR..

De restore op zich is goed verlopen echter start het ding uiteraard niet op want het zoekt naar een /dev/md0 device wat er niet meer is..

Heeft iemand hier ervaring mee met dit soort servers te restoren Bare Metal ?

The-BosS
13/10/16, 15:54
Wat je zou kunnen proberen is om ff te starten met een recovery cd of recovery mode en in CLI de harddisk te mouten, chroot te doen en dan even de fstab (en grub config) aan te passen naar het device dat het wel moet zijn.

mgielissen
13/10/16, 16:40
De baremetal server had waarschijnlijk /dev/sda en /dev/sdb als devicenaam voor de schijven. Binnen een vps (KVM) is dit meestal /dev/vda.

Check of je met een restore cd de schijf kunt benaderen en check /etc/mdadm/mdadm.conf

dennis0162
13/10/16, 19:12
Als je in de Fstab /dev/md0 aanpast naar je nieuwe boot partitie zou het moeten werken. Via een live cd bijvoorbeeld.

bibawa
13/10/16, 19:59
Zo simpel is het niet blijkbaar :s
Ben nu het volgende aan het proberen:

- R1Soft Restore cd opnieuw gestart, daar vervolgens een RAID0 set geforceerd aangemaakt met 1 disk

sudo mdadm --create --verbose /dev/md0 --level=0 --force --raid-devices=1 /dev/sda

- Vervolgens in R1Soft 'use existing storage configuration' gebruikt en dan restoren naar die /dev/md0

Misschien dat we er zo kunnen rondfietsen en dan achteraf bij het booten gewoon heel die mdadm weggooien..

let's try :-)

bibawa
13/10/16, 23:40
En dat werkt ook niet [emoji848]

The-BosS
14/10/16, 08:43
En waar krijg je precies foutmeldingen, is dat na de bios/uefi waar hij grub niet kan starten of is het na het starten van grub (init). Indien het na grub boot is dan zou ik eens voorstellen om je parameters van je init aan te passen en zaken zoals quiet, spash, ... weg te halen zodat je exact de debug output kunt zien waar het verkeerd loopt.

bibawa
14/10/16, 12:26
Probleem is dat de server boot, naar grub vliegt en direct terug reboot en het gaat zo snel dat ik er niet tussen geraak :-)
Nog maar eens proberen om het /dev/md0 device op /dev/sda te restoren.

Van wat ik zo overal lees moet je dat superblock wissen met mdadm --zero-superblock , dat heb ik gisteren via een livecd getracht te doen maar telkens zei hij dat er geen superblock informatie beschikbaar was.

Zou het kunnen omdat ik R1Soft zeg /dev/md0 te restoren op /dev/sda hij die superblock niet mee restored naar disk maar dat het OS zelf wel nog 'weet' heeft van dat Raid volume.
FSdisk zelf geeft als formaat ook Linux Raid volume weer..

mvg,

The-BosS
14/10/16, 12:50
Probeer eens te booten met optie “raid=noautodetect debug panic=600”, zodat je kernel niet probeert om de raid te detecteren die eventueel nog in je superblock zou zitten.

bibawa
14/10/16, 15:29
Als ik dus tijdens het booten het root volume in grub wijzig van /dev/md0 naar /dev/sda1 en raid=noautodetect toevoeg dan kkom ik zover.. En vervolgens stopt het weer mdadm no devices found for /dev/md0

12691

(Bijgevoegde thumbnail was de verkeerde screenshot :-) )

The-BosS
14/10/16, 16:17
Dan moet je nog even je fstab aanpassen zodat die geen gebruik meer maakt van /dev/md0 maar /dev/sda1 indien dit nog niet het geval zou zijn.

bibawa
14/10/16, 16:21
ook al aangepast werkt gewoon niet :@..
Heb ondertussen 2 disken aan de Vm gehangen zal daar wel op restoren en daarna MDADM afbreken in de werkende omgeving dat zou volgens vele posts die ik vind wel vlot moeten gaan.. (zero-superblock..)

Ellende software raid ! Ellende :-)