MTU Jumbo Frames
David Pasek
david.pasek at gmail.com
Sun Sep 13 20:40:45 CEST 2009
Ahoj,
2009/9/11 Richard Willmann <mk7ygre33apsq23c at foo.sk>:
> Pozdravujem pani,
>
> ma prosim niekto v produkcii nasadene "jumbo frames"?
u mnoha zakazniku to nastavujeme, ale vzdycjy je potreba vedet proc a jak
> Doteraz som to nikdy nepotreboval. Zatial som zistil nasledovne:
>
> * bge to podporuje,
> * nastavuje sa to zvysenim MTU (az do hodnoty 16110 bajtov) prostrednictvom
> ifconfig alebo route - aka hodnota je optimalna?
Ahoj,
2009/9/11 Indigo <indigo at eiecon.net>:
> Tak ja jenom dopnim ze tohle resi RFC 1191 a ze specialne ve Windows svete
> neni uplne 100% plneno. Takze za sebe doporucuju na MTU nesahat.
MTU se dneska nastavuje vetsinou pro SAN (Storage Area Network)
pracujici nad ethernetem.
Tzn. iSCSI a FCoE
V malych lokalnich SAN zalozenych na ethernetu vetsinou neni zadny
routing a vse se odehrava na L2, takze by vsechny prvky po ceste mely
mit stejne MTU.
V uloznych sitich jde o to, ze kdyz se prenasi diskovy blok, ktery je
vetsinou 2-16kB, po ethernetu, kde je defaultne MTU 1500B, tak je tam
velka fragmentace a neni to efektivni. Proto se tam vetsinou nastavuji
MTU na 9000. SAN by vsak mela byt provozovana na uplne oddelene
ethernetove siti od LAN.
> * su evidovane pripady, kedy nie je mozne nadviazat spojenie v pripade, ze
> na jednej strane su jumbo frames povolene a na druhej nie - tomuto celkom
> nerozumiem, napada niekoho preco by to malo takto byt?
Kdyz nektere zarizeni po ceste v L2 siti neumi fragmentovat/defragmentovat.
> * zvysenie priepustnosti nie je nikde deklarovane, nenasiel som ziadne
> porovnania az na par, nie priliz doverychodnych - ak to niekto pouziva,
> podelite sa prosim o nejake cisla?
Hlavne se to projevi v mensi zatezi CPU u softwarovych iSCSI
initiatoru a targetu.
> * na niektorych formach som si vsimol poznamky o negativnom dopade zvysenia
> MTU na latenciu - stretol sa s tym niekto?
To uz vysvetlil Dan.
> V mojom pripade bude na druhej
> strane NFS server, nizka latencia je dolezita.
S NFS serverem je to tezsi. Bud je zapojeny do normalni LAN, kde je
MTU 1500 a poskytuje souborove sluzby pres tuto klasickou LAN a tam
bych MTU nezvedal.
Nebo si NFS server dam do dedikovane site (jiny L2 segment). Na
serverech (NFS klientech) budu mit specialni sitovku zapojenou do
specialniho/specialnich switchu a vsude po ceste nastavim MTU 9000.
Tim by se mohlo ulevit procesorum na obou stranach a zvysit vykon
cteni/zapisu v MB/s. Sit ale casto neni tim nejuzsim mistem a je
potreba vedet, jestli mi to stihaji treba disky. Hlavne u nahodneho
cteni malych souboru.
> * pozna niekto efektivny, maly a rozumny nastroj na testovanie raw
> priepustnosti medzi dvoma boxami na urovni TCP/UDP? Idealne nieco naozaj
> velmi jednoduche a zkompilovatelne aj na Solarise.
ttcp a nebo lidi od storagu casto pouzivaji IOmeter, aby byli schopni
nasimulovat i diskovou zatez. Hlavne si tam muzes nastavit velikosti
diskovych bloku, apod.
David.
More information about the Users-l
mailing list