ZFS na FreeBSD [WAS: FreeBSD fibre channel multipath a zfs]

David Pasek david.pasek at gmail.com
Tue Aug 11 18:29:30 CEST 2009


Ahoj,

2009/8/11 Miroslav Lachman <000.fbsd at quip.cz>:
> To pak ale vychazeji uplne jina cisla, nez uvadel v tabulce David Pasek...
> takze jak to vlastne je? Co se povazuje za IOPS?
> Chapu to spravne, ze je to to same, co se napriklad ve vypisu systat -vm
> nebo iostat vypisuje jako "tps"? Tam pak totiz na obycejnem 7k2 rpm SATA II
> disku mam treba pri rsync zalohach okolo 150-200 tps, na vytizenem
> webserveru temer konstantne 140 tps, na jednom hodne vytizenem serveru to je
> dokonce pres 300 tps ve spicce (udaje ziskane prikazem iostat -w 240 ukladam
> do MRTG)

Neni to uplne to same viz. vysvetleni nize.

>
> PS: na webu horde.org jsem narazil napriklad na tabulku:
> 15k rpm: 180-210 IOPS
> 10k rpm: 130-150 IOPS
> 7200 rpm: 80-100 IOPS
> 5400 rpm: 50-80 IOPS
> ale tam mi porad nejak nepasuji hodnoty, co na svych serverech vidim ja

Je to uplne mimo hlavni topic teto konference, takze timto z me strany
posledni reakce na toto tema.

I kdyz se bavime o disku 15k rpm, tak kazdy model disku je trosku
jiny, proto to rozmezi. Na enterprise diskovych polich je mozne
sledovat vytizeni jednotlivych disku v RAID skupinach. Uz jsem videl i
220 IOPS per 15k rpm disk, ale jakmile jsou disky vytizeny na vic jak
170 IOPS, tak uz je to na povazenou. Ta cisla nahore v podstate
odpovidaji a pro hrubou kalkulaci potrebneho diskoveho vykonu je to
dostatecny model. Ty hodnoty jsou to co jeden fyzicky disk je schopen
maximalne dosahnout. Budu-li dlouhodobe pretezovat disk, ktery neni
urcen pro 24/7/365 tak to zase tak dlouho nebude ;-)  Je vsak potreba
si uvedomit, ze kdyz mi host (tedy server) posila na target (tedy
disk) nejake IO, tak to jeste prochazi napriklad radicem, ktery na
sobe muze mit read/write cache a IO prichazejici na disk jsou pak
trosku jine hodnoty. Dalsi vec je, ze target nemusi byt vzdy jen jeden
disk. Naopak jestlize chci velky vykon, tak musim mit mnoho disku
spojenych pomoci vhodneho RAIDu a tim se diskove IOPS scitaji. Pri
urcitych RAIDech, je ale zase urcity overhead. Jestlize mam RAID 5,
pak se jedna write operace zapisuje na 4 disky, takze mi to vygeneruje
4 IOPS. U RAID 1 nebo 10 jedna write operace vygeneruje na cilove
disky 2 IOPSy. RAID 0 je bez write overheadu, ale take bez redundance.
Kdybychom chteli jeste do vetsiho detailu, tak se musime bavit o tom,
kam se data na diskovych plotnach ukladaji a jak se k datum pristupuje
(random/sekvence), ale to uz jsou vetsinou zbytecne detaily pro sizing
diskoveho subsystemu, protoze presne to stejne nikdo nikdy nespocita.

Takze ze serveru neuvidim nic jineho, nez kolik transakci (operaci)
jde na prislusny device a co se deje dal musim odhadovat a nebo kdyz
mi to muj diskovy system dovoli, tak to monitorovat az na radicich a
discich.

David.



More information about the Users-l mailing list