Gentoo Forums
Gentoo Forums
Gentoo Forums
Quick Search: in
Fragen zur Planung und Wartung eines RAID-Systems
View unanswered posts
View posts from last 24 hours
View posts from last 7 days

Goto page Previous  1, 2  
Reply to topic    Gentoo Forums Forum Index Deutsches Forum (German) Diskussionsforum
View previous topic :: View next topic  
Author Message
firefly
Watchman
Watchman


Joined: 31 Oct 2002
Posts: 5332

PostPosted: Mon Aug 02, 2010 7:28 pm    Post subject: Reply with quote

Jimini wrote:
Oh, ich dachte, dazu wäre ein Controller grundsätzlich zwingende Voraussetzung.
Dann scheiterts bei mir aber daran, dass ich nur 2 SATA-Ports habe - dann könnte ich aber doch sicherlich auch statt eines RAID-Controllers einen einfachen SATA-Controller verwenden, oder?

MfG Jimini

jo wenn du deine vorhandenen 2 Ports mit verwenden möchtest für ein Raid5 dann reicht auch ein einfacher SATA Controller.
_________________
Ein Ring, sie zu knechten, sie alle zu finden,
Ins Dunkel zu treiben und ewig zu binden
Im Lande Mordor, wo die Schatten drohn.
Back to top
View user's profile Send private message
Jimini
l33t
l33t


Joined: 31 Oct 2006
Posts: 612
Location: Germany

PostPosted: Tue Aug 03, 2010 5:43 pm    Post subject: Reply with quote

Gut, wie ich gerade sehe, ist die SATA-Port-Geschichte ohnehin erst einmal sekundär - ich überlege, mir dann ohnehin ein neues Board zuzulegen.

Nochmal zum Knackpunkt meines Problems: ich brauche mindestens 4 TB nutzbaren Speicherplatzes in einem Verzeichnis. Ich werde also mindestens 3 Festplatten (RAID5, bei RAID1 oder RAID10 wären es 4) verbauen. Ich bin mir unsicher, welchem RAID-Modus ich den Vorzu geben soll:
- RAID1: ich müsste wohl zunächst mittels LVM eine Partition erstellen, die sich über 2 Festplatten erstreckt (mal ganz vereinfacht ausgedrückt)
- RAID5: mindestens 3 Datenplatten, der LVM-Kram würde hier (afaik) wegfallen
- RAID10: wäre in dem Fall doch eigentlich fast das selbe wie die RAID1-Methode, oder? 2 Festplatten im RAID0-Modus und das Ganze halt nochmal gespiegelt

Wenn das, was ich hier schreibe, korrekt ist, dann wäre ein RAID5 wohl am sinnvollsten - geringere Kosten und das Wegfallen des LVM-Krams wären schon nett.

MfG Jimini
_________________
"The most merciful thing in the world, I think, is the inability of the human mind to correlate all its contents." (H.P. Lovecraft: The Call of Cthulhu)
Back to top
View user's profile Send private message
Yminus
Apprentice
Apprentice


Joined: 06 Jan 2008
Posts: 185

PostPosted: Wed Aug 11, 2010 12:14 am    Post subject: Reply with quote

Jimini wrote:
- RAID10: wäre in dem Fall doch eigentlich fast das selbe wie die RAID1-Methode, oder? 2 Festplatten im RAID0-Modus und das Ganze halt nochmal gespiegelt


Umgekehrt - zwei RAID 1 (Festplatten gespiegelt) werden mit einem RAID 0 (Striping über die beiden RAID 1) zusammengefasst.

So sieht's aus
Back to top
View user's profile Send private message
Jimini
l33t
l33t


Joined: 31 Oct 2006
Posts: 612
Location: Germany

PostPosted: Mon Aug 16, 2010 8:32 pm    Post subject: Reply with quote

Ich habe jetzt in den letzten Tagen mal einige Zeit damit verbracht, ein RAID5 in einer VM einzurichten und damit herumzuspielen - Devices entfernen, hinzufügen, das Array vergrößen etc.
Soweit funktioniert auch alles, nur eins stört mich: eine Meldung beim Booten, dass eins der Devices keinen Superblock hat:
Code:
* Starting up RAID devices ...
mdadm: /dev/sde1 has no superblock - assembly aborted                [!!]


Ich habe das RAID5 wie folgt eingerichtet:
- die ins Array einzubindenden Partitionen erstellt
- das Array erstellt (zunächst mit 4 Devices): mdadm --create /dev/md0 --level=raid5 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
- testweise ein Device entfernt: mdadm -f /dev/md0 /dev/sde1 && mdadm -r /dev/md0 /dev/sde1
- dann ein neues Device hinzugefügt: mdadm -a /dev/md0 /dev/sdf1 und das Array dann reshapen lassen
- dann noch dreimal ein Device hinzugefügt und das Array vergrößert: mdadm -a /dev/md0 /dev/sde1 && mdadm --grow /dev/md0 --raid-devices=5
So sollte das Ganze doch seine Richtigkeit haben, oder?

Wie gesagt - mir wird das Array als einwandfrei angezeigt:
Code:
Phobos ~ # cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdh1[6](S) sdg1[5] sdf1[3] sde1[4] sdd1[2] sdc1[1] sdb1[0]
      10481920 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
     
unused devices: <none>


Code:
Phobos ~ # mdadm --detail /dev/md0
/dev/md0:                                                                                                                                                                                                                                   
        Version : 0.90                                                                                                                                                                                                                       
  Creation Time : Mon Aug 16 20:53:47 2010                                                                                                                                                                                                   
     Raid Level : raid5                                                                                                                                                                                                                     
     Array Size : 10481920 (10.00 GiB 10.73 GB)                                                                                                                                                                                             
  Used Dev Size : 2096384 (2047.59 MiB 2146.70 MB)                                                                                                                                                                                           
   Raid Devices : 6                                                                                                                                                                                                                         
  Total Devices : 7                                                                                                                                                                                                                         
Preferred Minor : 0                                                                                                                                                                                                                         
    Persistence : Superblock is persistent                                                                                                                                                                                                   
                                                                                                                                                                                                                                             
    Update Time : Mon Aug 16 22:21:49 2010                                                                                                                                                                                                   
          State : clean                                                                                                                                                                                                                     
 Active Devices : 6                                                                                                                                                                                                                         
Working Devices : 7                                                                                                                                                                                                                         
 Failed Devices : 0                                                                                                                                                                                                                         
  Spare Devices : 1                                                                                                                                                                                                                         
                                                                                                                                                                                                                                             
         Layout : left-symmetric                                                                                                                                                                                                             
     Chunk Size : 64K                                                                                                                                                                                                                       
                                                                                                                                                                                                                                             
           UUID : 21b72be7:5455667f:67dafc41:fc88d1f4                                                                                                                                                                                       
         Events : 0.368                                                                                                                                                                                                                     
                                                                                                                                                                                                                                             
    Number   Major   Minor   RaidDevice State                                                                                                                                                                                               
       0       8       17        0      active sync   /dev/sdb1                                                                                                                                                                             
       1       8       33        1      active sync   /dev/sdc1                                                                                                                                                                             
       2       8       49        2      active sync   /dev/sdd1                                                                                                                                                                             
       3       8       81        3      active sync   /dev/sdf1                                                                                                                                                                             
       4       8       65        4      active sync   /dev/sde1                                                                                                                                                                             
       5       8       97        5      active sync   /dev/sdg1                                                                                                                                                                             
                                                                                                                                                                                                                                             
       6       8      113        -      spare   /dev/sdh1 


Irgendeine Idee, woran es liegen könnte?

MfG Jimini
_________________
"The most merciful thing in the world, I think, is the inability of the human mind to correlate all its contents." (H.P. Lovecraft: The Call of Cthulhu)
Back to top
View user's profile Send private message
oma
Guru
Guru


Joined: 17 Feb 2004
Posts: 302
Location: /home/markus/heiligenhaus

PostPosted: Wed Aug 25, 2010 8:51 pm    Post subject: Reply with quote

Quote:
"je mehr Platz man hat, desto mehr speichert man auch"
das ist schon wahr und da ich ein paar TB im Keller hab bestätige ich das ohne mit der Wimper zu zucken :D Ich gehe mit dem Gedanken schwanger ZFS samt dedup im Fileserver zu machen denn ich bin sicher auf Blockbene sind viele Dinge doppelt und RAID wäre weiterhin machbar...
_________________
"...ich bin Guybrush Threepwood - ein mächtiger Pirat!"
Back to top
View user's profile Send private message
fuchur
Guru
Guru


Joined: 12 Aug 2003
Posts: 578

PostPosted: Wed Aug 25, 2010 10:17 pm    Post subject: Reply with quote

Hi
Jimini wrote:
Nochmal zum Knackpunkt meines Problems: ich brauche mindestens 4 TB nutzbaren Speicherplatzes in einem Verzeichnis. Ich werde also mindestens 3 Festplatten (RAID5, bei RAID1 oder RAID10 wären es 4) verbauen.
....
Jimini wrote:

Ich habe jetzt in den letzten Tagen mal einige Zeit damit verbracht, ein RAID5 in einer VM einzurichten und damit herumzuspielen - Devices entfernen, hinzufügen, das Array vergrößen etc.
Soweit funktioniert auch alles, nur eins stört mich: eine Meldung beim Booten, dass eins der Devices keinen Superblock hat:
Code:
* Starting up RAID devices ...
mdadm: /dev/sde1 has no superblock - assembly aborted                [!!]
Code:

Phobos ~ # mdadm --detail /dev/md0
/dev/md0:                                                                                                                                                                                                                                   
        Version : 0.90                                                                                                                                                     
        ....

Könnte das vielleicht bei dir zutreffen (Auszug aus der manpage):
Quote:
-e, --metadata=
Declare the style of RAID metadata (superblock) to be used. The default is 1.2 for --create, and to guess for other operations. The
default can be overridden by setting the metadata value for the CREATE keyword in mdadm.conf.

Options are:

0, 0.90
Use the original 0.90 format superblock. This format limits arrays to 28 component devices and limits component devices of levels 1
and greater to 2 terabytes.

......

MfG
Back to top
View user's profile Send private message
Jimini
l33t
l33t


Joined: 31 Oct 2006
Posts: 612
Location: Germany

PostPosted: Thu Aug 26, 2010 4:45 am    Post subject: Reply with quote

Hups, den Thread hier hatte ich ganz vergessen. Hier mal der Auszug zu --metadata:
Quote:
-e , --metadata=
Declare the style of superblock (raid metadata) to be used. The default is 0.90 for --create, and to guess for other operations.
Options are:
0, 0.90, default
Use the original 0.90 format superblock. This format limits arrays to 28 componenet devices and limits component devices of levels 1 and greater to 2 terabytes.
1, 1.0, 1.1, 1.2
Use the new version-1 format superblock. This has few restrictions. The different subversion store the superblock at different locations on the device, either at the end (for 1.0), at the start (for 1.1) or 4K from the start (for 1.2).

Ich bin mir nicht ganz sicher, ob es daran liegt, denn:
- /dev/sde1 selber ist ja nicht formatiert
- 28 Devices werde ich wohl niemals überschreiten
- 2 TB pro Device werden auf absehbare Zeit auch nicht überschritten werden (das dürfte mit dem Problem bei Festplatten >2TB zusammenhängen, die unter vielen Betriebssystemen nur mit einigem Arbeitsaufwand genutzt werden können, da mit der Standard-Sektorengröße nicht alle Blocks adressiert werden können - oder so in der Art)

Die Superblock-Fehlermeldung konnte ich wie folgt reproduzieren:
- das Array mit 4 Devices erstellt
- Reboot, laut Fehlermeldung hat /dev/sde1 keinen Superblock
- das Array gestoppt
- das Array gestartet (mdadm -A /dev/md0): keine Fehlermeldung
- nochmal mdadm -A /dev/md0 ausgeführt: Superblock-Fehlermeldung erscheint wieder. Die Fehlermeldung erscheint also nur, wenn zweimal mdadm -A /dev/md0 ausgeführt wird.

Ich habe das Problem jetzt so gelöst oder zumindest umschifft, dass ich im Kernel CONFIG_MD_AUTODETECT deaktiviert habe und die RAID-Erkennung jetzt nur noch über mdadm laufen lasse. Letztendlich war es wohl ein rein kosmetisches Problem, aber da in Bälde meine ganzen Daten auf der Kiste liegen werden, neige ich da etwas zu Übervorsicht und Paranoia ;)

MfG Jimini
_________________
"The most merciful thing in the world, I think, is the inability of the human mind to correlate all its contents." (H.P. Lovecraft: The Call of Cthulhu)
Back to top
View user's profile Send private message
Jimini
l33t
l33t


Joined: 31 Oct 2006
Posts: 612
Location: Germany

PostPosted: Sat Mar 05, 2011 6:48 pm    Post subject: Reply with quote

Endlich endlich steht die neue Kiste hier - zwar noch ohne Datenplatten fürs RAID6, aber das RAID1, auf dem das System läuft, ist fertig. Hierbei bin ich über folgende Probleme gestolpert:
1) Ich habe im Kernel die Autoerkennung der RAID-Devices aktiviert, ohne diese Option gabs beim Booten einen Kernel Panic. Jetzt muss ich aber die Arrays in der /etc/mdadm.conf auskommentieren, da sonst alle Arrays einmal vom Kernel und einmal von mdadm eingebunden werden, was zu Fehlern führt. An sich kein Problem, aber beim Booten bekomme ich eine kleine Fehlermeldung, dass in besagter mdadm.conf keine Arrays gefunden wurden. Kann ich diese Fehlermeldung irgendwie unterbinden?

2) Beim Shutdown bekomme ich die Fehlermeldung, dass /dev/md2 nicht gestoppt werden kann. Ich vermute, dass es daran liegt, dass dieses Array als allerletztes gestoppt werden muss, was an meinem Partitionslayout liegen dürfte:
Code:
/dev/md2        /
/dev/md1        /boot
/dev/md3        none
/dev/md5        /tmp
/dev/md6        /var
/dev/md7        /usr
/dev/md8        /home

Kann ich die Reihenfolge des Array-Stopvorgangs irgendwie verändern? Mir ist nicht wohl dabei, den Rechner zu rebooten, ohne dass ein Array ordnungsgemäß gestoppt werden konnte.

MfG Jimini
_________________
"The most merciful thing in the world, I think, is the inability of the human mind to correlate all its contents." (H.P. Lovecraft: The Call of Cthulhu)
Back to top
View user's profile Send private message
Display posts from previous:   
Reply to topic    Gentoo Forums Forum Index Deutsches Forum (German) Diskussionsforum All times are GMT
Goto page Previous  1, 2
Page 2 of 2

 
Jump to:  
You cannot post new topics in this forum
You cannot reply to topics in this forum
You cannot edit your posts in this forum
You cannot delete your posts in this forum
You cannot vote in polls in this forum