MTU Jumbo Frames

David Pasek david.pasek at gmail.com
Sun Sep 13 20:40:45 CEST 2009


Ahoj,

2009/9/11 Richard Willmann <mk7ygre33apsq23c at foo.sk>:
> Pozdravujem pani,
>
> ma prosim niekto v produkcii nasadene "jumbo frames"?

u mnoha zakazniku to nastavujeme, ale vzdycjy je potreba vedet proc a jak

> Doteraz som to nikdy nepotreboval. Zatial som zistil nasledovne:
>
> * bge to podporuje,
> * nastavuje sa to zvysenim MTU (az do hodnoty 16110 bajtov) prostrednictvom
> ifconfig alebo route - aka hodnota je optimalna?

Ahoj,

2009/9/11 Indigo <indigo at eiecon.net>:
> Tak ja jenom dopnim ze tohle resi RFC 1191 a ze specialne ve Windows svete
> neni uplne 100% plneno. Takze za sebe doporucuju na MTU nesahat.

MTU se dneska nastavuje vetsinou pro SAN (Storage Area Network)
pracujici nad ethernetem.
Tzn. iSCSI a FCoE

V malych lokalnich SAN zalozenych na ethernetu vetsinou neni zadny
routing a vse se odehrava na L2, takze by vsechny prvky po ceste mely
mit stejne MTU.

V uloznych sitich jde o to, ze kdyz se prenasi diskovy blok, ktery je
vetsinou 2-16kB, po ethernetu, kde je defaultne MTU 1500B, tak je tam
velka fragmentace a neni to efektivni. Proto se tam vetsinou nastavuji
MTU na 9000. SAN by vsak mela byt provozovana na uplne oddelene
ethernetove siti od LAN.

> * su evidovane pripady, kedy nie je mozne nadviazat spojenie v pripade, ze
> na jednej strane su jumbo frames povolene a na druhej nie - tomuto celkom
> nerozumiem, napada niekoho preco by to malo takto byt?

Kdyz nektere zarizeni po ceste v L2 siti neumi fragmentovat/defragmentovat.

> * zvysenie priepustnosti nie je nikde deklarovane, nenasiel som ziadne
> porovnania az na par, nie priliz doverychodnych - ak to niekto pouziva,
> podelite sa prosim o nejake cisla?

Hlavne se to projevi v mensi zatezi CPU u softwarovych iSCSI
initiatoru a targetu.

> * na niektorych formach som si vsimol poznamky o negativnom dopade zvysenia
> MTU na latenciu - stretol sa s tym niekto?

To uz vysvetlil Dan.

> V mojom pripade bude na druhej
> strane NFS server, nizka latencia je dolezita.

S NFS serverem je to tezsi. Bud je zapojeny do normalni LAN, kde je
MTU 1500 a poskytuje souborove sluzby pres tuto klasickou LAN a tam
bych MTU nezvedal.

Nebo si NFS server dam do dedikovane site (jiny L2 segment). Na
serverech (NFS klientech) budu mit specialni sitovku zapojenou do
specialniho/specialnich switchu a vsude po ceste nastavim MTU 9000.
Tim by se mohlo ulevit procesorum na obou stranach a zvysit vykon
cteni/zapisu v MB/s. Sit ale casto neni tim nejuzsim mistem a je
potreba vedet, jestli mi to stihaji treba disky. Hlavne u nahodneho
cteni malych souboru.

> * pozna niekto efektivny, maly a rozumny nastroj na testovanie raw
> priepustnosti medzi dvoma boxami na urovni TCP/UDP? Idealne nieco naozaj
> velmi jednoduche a zkompilovatelne aj na Solarise.

ttcp a nebo lidi od storagu casto pouzivaji IOmeter, aby byli schopni
nasimulovat i diskovou zatez. Hlavne si tam muzes nastavit velikosti
diskovych bloku, apod.

David.



More information about the Users-l mailing list