Lysator ZFS
I söndags låg Lysators system nere pga. strömavbrott i det hus på universitetet de har sin serverhall. Efter strömavbrottet kom systemen upp igen, med ny “hemdisklösning”. Jag frågade nyfiket i KOM vad man haft förut och har nu, och fick följande svar:
Förut: 200GB bestående av 38st speglade 18GB-FiberChannel-anslutna diskar i ett UFS-filsystem
Nu: 500GB bestående av 50GB-chunks från A3500FC RAID-system (JBOD) i ett ZFS-filsystem (RAIDZ-konfiguration):[0] studsvik:~> zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT galahad 504G 347G 157G 68% ONLINE - [0] studsvik:~> zpool status pool: galahad state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM galahad ONLINE 0 0 0 raidz ONLINE 0 0 0 /dev/md/dsk/d200 ONLINE 0 0 0 /dev/md/dsk/d201 ONLINE 0 0 0 /dev/md/dsk/d202 ONLINE 0 0 0 /dev/md/dsk/d203 ONLINE 0 0 0 /dev/md/dsk/d204 ONLINE 0 0 0 raidz ONLINE 0 0 0 /dev/md/dsk/d205 ONLINE 0 0 0 /dev/md/dsk/d206 ONLINE 0 0 0 /dev/md/dsk/d207 ONLINE 0 0 0 /dev/md/dsk/d208 ONLINE 0 0 0 /dev/md/dsk/d209 ONLINE 0 0 0 errors: No known data errors
Vi har 500GB till att ta till när det börjar bli fullt från ett till A3500FC-system.
Jag tänkte även ta och göra om det gamla 18GB-systemet till ett ZFS-filsystem (när vi ser att allt funkar bra med det nya), fast då i RAIDZ2-konfiguration för dubbel redundans.
Sorry, comments are closed for this article.