Lysator ZFS

I söndags låg Lysators system nere pga. strömavbrott i det hus på universitetet de har sin serverhall. Efter strömavbrottet kom systemen upp igen, med ny “hemdisklösning”. Jag frågade nyfiket i KOM vad man haft förut och har nu, och fick följande svar:

Förut: 200GB bestående av 38st speglade 18GB-FiberChannel-anslutna diskar i ett UFS-filsystem

Nu: 500GB bestående av 50GB-chunks från A3500FC RAID-system (JBOD) i ett ZFS-filsystem (RAIDZ-konfiguration):

[0] studsvik:~> zpool list
NAME                    SIZE    USED   AVAIL    CAP  HEALTH     ALTROOT
galahad                 504G    347G    157G    68%  ONLINE     -
[0] studsvik:~> zpool status 
  pool: galahad
 state: ONLINE
 scrub: none requested
config:

        NAME                  STATE     READ WRITE CKSUM
        galahad               ONLINE       0     0     0
          raidz               ONLINE       0     0     0
            /dev/md/dsk/d200  ONLINE       0     0     0
            /dev/md/dsk/d201  ONLINE       0     0     0
            /dev/md/dsk/d202  ONLINE       0     0     0
            /dev/md/dsk/d203  ONLINE       0     0     0
            /dev/md/dsk/d204  ONLINE       0     0     0
          raidz               ONLINE       0     0     0
            /dev/md/dsk/d205  ONLINE       0     0     0
            /dev/md/dsk/d206  ONLINE       0     0     0
            /dev/md/dsk/d207  ONLINE       0     0     0
            /dev/md/dsk/d208  ONLINE       0     0     0
            /dev/md/dsk/d209  ONLINE       0     0     0

errors: No known data errors

Vi har 500GB till att ta till när det börjar bli fullt från ett till A3500FC-system.

Jag tänkte även ta och göra om det gamla 18GB-systemet till ett ZFS-filsystem (när vi ser att allt funkar bra med det nya), fast då i RAIDZ2-konfiguration för dubbel redundans.

Sorry, comments are closed for this article.