We are in the process of migrating this forum. A new space will be available soon. We are sorry for the inconvenience.

Platte aus RAID 1 entfernen?


EvilMoe
05.02.15, 09:25
mdadm --manage /dev/md1 --remove /dev/sdc1
......................

Tibain
04.02.15, 23:39
Code:
root@ovh:~# mdadm --detail /dev/md1
/dev/md1:
        Version : 0.90
  Creation Time : Mon Jan 12 18:51:46 2015
     Raid Level : raid1
     Array Size : 116167616 (110.79 GiB 118.96 GB)
  Used Dev Size : 116167616 (110.79 GiB 118.96 GB)
   Raid Devices : 3
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Wed Feb  4 23:38:09 2015
          State : clean, degraded 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : c4ec6d1c:88ee1b00:a4d2adc2:26fd5302
         Events : 0.1383772

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       0        0        2      removed
root@ovh:~#
Code:
root@ovh:~# cat /proc/partitions
major minor  #blocks  name

   8        0  117220824 sda
   8        1  116167680 sda1
   8        2    1047552 sda2
   8       32  117220824 sdc
   8       33  116165983 sdc1
   8       16  117220824 sdb
   8       17  116167680 sdb1
   8       18    1047552 sdb2
   9        1  116167616 md1
root@ovh:~#

Felix
29.01.15, 16:41
Dann gib mal bitte die Ausgaben von:
# mdadm --detail /dev/md1
# cat /proc/partitions

Tibain
24.01.15, 22:06
Ich pushe nochmal und hoffe, dass mir da jemand helfen kann.

Tibain
21.01.15, 15:15
Zitat Zitat von Felix
und zusätzlich noch "mdadm --zero-superblock /dev/sdc1" um die mdadm-Metadaten aus der Partition zu löschen, sowie (z.B. mit cfdisk) den partition type von "Linux Softraid" (0xFD) auf "Linux" (0x83) umstellen.
root@ovh:~# mdadm --zero-superblock /dev/sdc1
mdadm: Couldn't open /dev/sdc1 for write - not zeroing
root@ovh:~#

Also mdadm /dev/md1 -r detached gibt mir keine Ausgabe und ändert auch grade nichts.

Felix
21.01.15, 14:49
und zusätzlich noch "mdadm --zero-superblock /dev/sdc1" um die mdadm-Metadaten aus der Partition zu löschen, sowie (z.B. mit cfdisk) den partition type von "Linux Softraid" (0xFD) auf "Linux" (0x83) umstellen.

Clasko
21.01.15, 13:54
"mdadm /dev/md1 -r detached" sollte tun was du möchtest.

Existierende Backups setze ich mal voraus.

Tibain
21.01.15, 07:10
Hallo,

habe den SYS-E3-SSD-3 und die 3 Platten dummerweise im RAID 1, also 3x 120 GB = 120 GB.

Vor etwa einer Woche habe ich eine Platte entfernt um sie für VM's zu nutzen weil ich einfach Platzprobleme habe. Im Moment habe ich also ein "degraded" RAID 1 mit 2x 120 GB und eine einzelne Platte mit 120 GB.

Seit dem habe ich den Server mehrmals neugestartet, der Server kommt auch problemlos hoch.

https://cdn.treudler.net/images/ovh/...5-22-05-56.png

Jetzt bekomme ich beim Login die Meldung "You have mail."

Code:
root@ovh:~# tail -f /var/mail/root
Faithfully yours, etc.

P.S. The /proc/mdstat file currently contains the following:

Personalities : [raid1] [raid0] [raid6] [raid5] [raid4] 
md1 : active raid1 sda1[0] sdb1[1]
      116167616 blocks [3/2] [UU_]
      
unused devices: 

^C
root@ovh:~# cat /proc/mdstat
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4] 
md1 : active raid1 sda1[0] sdb1[1]
      116167616 blocks [3/2] [UU_]
      
unused devices: 
root@ovh:~#
Kann ich das einfach so lassen oder hat jemand einen Tip, wie ich den DEGRADED-Status reparieren kann? Eine Neuinstallation wäre das letzte was ich will... :c