Otazka iSCSI
David Pasek
david.pasek at gmail.com
Mon Mar 10 09:53:24 CET 2014
Ahoj,
2014-03-06 22:30 GMT+01:00 Dan Lukes <dan at obluda.cz>:
> Neodpovim protoze nevim, misto toho se zeptam ...
>
> Duvod ? Mel jsme dojem, ze iSCSI ma za srovnatelnych sitovych okolnosti
> nutne horsi pruchodnost. Ale nemeril jsem, je to jen odhad ...
>
> Dan
Take neodpovim upne konkretne, protoze jsem zatim nikdy nebyl nucen
zprovoznovat iSCSI iniciator na FreeBSD. Zatim jen na Linuxech a
Windows. Na FreeBSD si v labech provozuji iSCSI target (iSCSI storage)
v predpripravene podobe FreeNAS.
Nicmene FreeBSD 10 asi iSCSI dost meni a snad k lepsimu viz.
https://www.freebsd.org/doc/handbook/network-iscsi.html
Informace v handbooku ti nepomohou k reseni tve puvodni otazky?
Nicmene tady je odpoved na Danuv dotaz. Jelikoz jsou storage
poslednich nekolik let muj denni chleba, tak mohu zodpovedne
prohlasit, ze rozhodne neplati to, ze by iSCSI za srovnatelnych
sitovych okolnosti melo horsi pruchodnost.
Predpoklady:
- sit je LAN
- LAN umoznuje JumboFrames (ne ze by JumboFrames vzdy pomohly, ale casto ano)
- iSCSI storage (target) je neco dostatecne dobreho - vim ze je to
dost obecny predpoklad :-)
Vyhoda iSCSI oproti NFS je v tom, ze umoznuje tzv. multipathing, coz
vyrazne zvysuje pruchodnost. Takze mam-li 4x1Gb jen pro iSCSI, tak
mohu efektivne dosahnout throughput az 400-500MBps. Na NFS logicky
podobneho multipathingu a logickeho zbundlovani dosahnout nemuzu,
protoze i kdyz pouziji LACP agregaci ke zbundlovani vice interfacu,
tak je loadbalancing vzdy zavisly na load balancing algoritmu, ktery
mi nikdy nerozbalancuje komunikaci mezi stejnym src-IP a dst-IP, coz u
NFS spojeni vzdy bude.
Dalsi potencialni vyhoda iSCSI je to, ze se to tvari jako blokove zarizeni.
iSCSI ma i sve nevyhody. Drive, nez jsem se naucil Fibre Channel, jsem
iSCSI dost preferoval. Dnes zatim spise preferuji Fibre Channel a do
budoucna asi FCoE. Obecna vyhoda iSCSI mela byt v tom, ze
administratori rozumi ethernetu a IP, takze to bude levnejsi a
jednodussi. Problem je v tom predpokladu, ze admini rozumi ethernetu a
IP. Z mych zkusenosti tomu tak neni - pozor nemluvim a FreeBSD a Linux
adminech ;-)
Nekdo tady zminil FCoE (Fibre Channel over Ethertnet). Ano to je
nastupujici trend, ktery razi treba CISCO. Dava to smysl, ale opet to
vyzaduje dobrou znalost ethernetu a prioritizace. Storage prenos
(SCSI) musi byt bez-ztratovy (lost less). K tomu je vsak zapotrebi
switche podporujici lost-less ethernet (tzv. DCB - data center
bridging) a ty zatim nejsou levne a take tomu rozumi malokdo.
Mimochodem paradoxne i pro iSCSI je lost-less ethernet velmi vyhodny,
i kdyz by si clovek rekl, ze to preci zajisti TCP, ale ono delat caste
retransmity rozhodne storage prenosu nepomuze. Vyhoda FCoE je v tom,
ze nemusim mit dedikovane switche pro LAN a SAN, ale je to
zkonvergovane do jedne sitove infrastruktury.
Drive byl cisty Fibre Channel draha zalezitost. V dnesni dobe je FC
8Gb HBA stejne drahe jako 10Gb sitovka. 8Gb FC Switche jsou dnes
dokonce levnejsi nez datacentrove 10Gb ethernetove switche, takze
cenove vyhody FCoE jsou znatelne jen ve vetsich prostredich. Nicmene
konvergence je neuprosna a odhaduji, ze casem klasicky FC zmizi a bude
nahrazen FCoE.
Vyber mezi iSCSI, FC, FCoE, a NFS je vzdy zavisly na tom, co od toho
pozaduji a jake mam moznosti a omezeni.
NFS je obecne vhodny pro sdileni souboru mezi vice systemy - na to byl udelan.
Blockove storage protokoly (FC, iSCSI, FCoE) jsou vhodne pro pripojeni
blokovych disku k jednomu serveru a nebo k vice serverum podporujici
nejakou formu clusteringu.
Mimochodem cela story neni jen o protokolu, ale i o konkretnich
implementacich a produktech, takze se muze stat, ze za urcitych
podminek neplati obecne povidani, ktere jsem tady sepsal.
David.
More information about the Users-l
mailing list