Hlavní stránka Hardware Sítě a Internet Domácí síťování: FreeNAS s 10 GbE a SAN s Fibre Channel
Domácí síťování: FreeNAS s 10 GbE a SAN s Fibre Channel
autor: Petr Šaroun , publikováno 5.6.2019
Domácí síťování: FreeNAS s 10 GbE a SAN s Fibre Channel

Do našeho FreeNAS přidáme 10 GbE síťovku, nakoukneme do světa SAN (sítí pro ukládání dat) s technologií Fibre Channel, kterou si na FreeNAS můžete zkusit. Zmíníme pár vychytávek (jak na FC obnovit zbořené Windows za 15 sekund), pustíme virtuální počítač s Windows 10, které přesuneme do fyzického PC a skončíme u OpenWrt.


Závěr

FreeNAS nabízí některé zajímavé vychytávky, můžete nakouknout do velkého světa SAN. Zapojit se do projektu FreeNAS nebo FreeBSD a zjistit, jak pracuje komunita. Umíte anglicky? Přidejte se jako překladatel. Umíte programovat? Zapojte se jako vývojář. Někteří tak našli práci z domova za americký plat.

Administrátoři (nikoliv vývojáři) FreeBSD berou při práci z domova asi USA 40 až 90 tisíc dolarů ročně, 90 tisíc dolarů asi nedostanete, leda byste byli zatraceně dobří, ale 40–50 tisíc dolarů ano. Potřebujete dobrou angličtinu (potrénujete při práci na projektu), dva až tři roky zkušenosti s vývojem a mít trochu „můžo“.

Pravda, pracovat vzdáleně nevyhovuje všem. Skvělý plat, ušetříte spoustu času dojížděním, ale občas budete muset letět do USA, dostanete víc práce a můžete být potenciálně první na řadě s vyhazovem. Dovedete si představit sebe, jak pracujete z pláže Řecku? Za 4500 dolarů měsíčně vyžijete i v menším Japonském městě...



Tagy: FreeNAS  FreeBSD  NAS  server  sdílení  síťové sdílení  sdílená složka  SMB  virtualizace  10 GbE síť  10 gigabitový  10 gbit  10 giga  Fibre Channel  Virtualizace  OpenWrt  


 
Komentáře k článku
RSS
Pouze registrovaní uživatelé mohou přidat komentář!
5.6.2019 11:21:43   62.141.0.xxx 1125
Nemuzu si pomoct, ale mam pocit ze pan Saroun s kocickou varili dort a vznikl z toho jakysi gulas vseho mozneho...

Radsi nez FC jste se mel venovat DLNA/mediaserverum atd. kdyz to nazyvate domacim sitovanim...
5.6.2019 14:24:35   91.139.122.xxx 351
Určitě ne.

Méně pokročilý uživatel si nebude pořizovat FeeNAS, ale koupí si hotové Synology, které nabízí významně vyšší komfort. Proto jsem o DLNA/media serveru psal právě v souvislosti se Synology. Což jednak to nemělo čtenost a jednak se od té doby vůbec nic nezměnilo. Proč nosit dříví do lesa?

Naopak, sítě SAN jsou natolik zajímavé, že má smysl je lidem přiblížit, což jde velmi snadno právě jen s FreeNASem.

Ad dort, to se mě trochu dotklo, protože psaní o DLNA je o řád snazší než o FC. A nikomu nebráním psát o DLNA, naopak, jestli si na to troufnete, pojďte do toho. Jen vás upozorňuji, že v diskuzích se občas objevují lidé, kterým se prostě s ničím nezavděčíte.
5.6.2019 20:04:39   176.124.185.xxx 715
Tak doufejme ze si to u dalsich clanku vezmete k srdci. Vsak se na ten clanek podivejte, nedrzi myslenku, jednu chvili domaci 10Gbit, kteremu se radne nevenuje, najednou resi FC, ktere je pro NAS neni uplne vhodne (resp. kdo bude doma resit SAN), virtualizace, OpenWRT, nakonec nejake nesmysly o tom kolik berou admini BSD... WTF? Bohuzel podobnou roztekanost a povrchnost vidim i u vasich starsich clanku...

Ano, v clankuo domacim ulozisti me mnohem vice bude zajimat DLNA, nejake reseni personalniho cloudu, zalohovani pocitacu.
5.6.2019 21:10:29   91.139.122.xxx 64
Nechápejte mě zle, ale už ve svém prvním postu jsem vám vysvětlil, že s vámi nesouhlasím
5.6.2019 21:33:54   85.207.120.xxx 64
To: CalebCox
Však můžeš s něčím přijít a napsat ... ale pozor, jdeš s kůží na trh a jak píše Petr, někteří lidé tě v komentářích rozcupují. Je jim totálně jedno, že jsi s tím měl několika denní práci, vše jsi musel nafotit, zdokumentovat, vyzkoušet. Navíc u Petra je vidět, že jen nepapouškuje, ale opravdu ho to baví a zajímá. Tohle je základ. Proč psát něco, co tu už bylo a ještě k tomu to jen papouškovat? Prostě je lepší mít někoho, koho něco baví a dělá to dobře, než někoho, kdo papouškuje a ví o tom prdlačky.
26.6.2019 06:51:32   81.31.39.xxx 00
Sítě SAN jsou zajímavé jsou taky pro mapování disku z diskových polí lepší než iSCSI, iSCSI je náhrada pro chudý vznikl právě kuli ceně FC, přitom FC má nativní podporu scsi příkazů, co se týče latencí je daleko rychlejší, líp se na něm dělá MPIO pro vysokou dostupnost, taky má lepší podporu pro BOOT from SAN než iSCSI, v dnešní době se běžně dávají 16GB adaptery eventuelně kdo stavý profi řešení s vysokou škálovatelností storage tak sáhne po 32GB FC adapteru, když už je nutnost použít ethernet prostředí pro přenos disků tak jedině FCoE v rámci agregovaných sítí, jsou sice zastánci co preferují všechno na ethernet takže jedou na iSCSI ale ve finále to eni tak jednoduchý jak marketáci říkají, muís mít iSNS server pro řízení identit IQN iniciátorů, pokud nemaj extra iSCSI HBA kartu tak radši at zapomenou na nějaky ofload checksum na sítovce protože by ji utavili atd. iSCSI z technickýho hlediska funguje ale je to o řád až dva horší než FC, jediný proč se dostali do popředí je marketing a trochu cena.
O SAN se mužete rozepsat třeba o zonování na switchi a o škálování switchů přes ISL atd :-)
5.6.2019 11:43:12   185.99.65.xxx 40
Koupil jsem FC karty pred nejakou dobou omylem - chtel jsem levne povysit gb sit na neco rychlejsiho a nevsiml jsem si napisu fibre channel. Pokud by nekdo chtel mam 2 karty qlogic 4Gb/s a 3m kabel (je to multimode optika - koupit dalsi neni problem) Pokud by je nekdo chtel napiste mi odpoved a za nejakou symbolickou cenu je necham. (jen nevim jak si vymenime kontakt - nechci na sebe tady asi nic zverejnovat)
5.6.2019 12:37:12   165.225.73.xxx 11
co znamena "nevzpouzí se" ??
5.6.2019 14:32:05   91.139.122.xxx 20
Dobrý den, třeba rozchodit Emulex proti Qlogic je náročnější, některé volby nejsou pojmenované stejně. Qlogic proti Qlogic rozběhnete snadno. Emulex na straně klienta funguje, jen je snazší ho rozběhnout proti fungujícímu targetu. A to nemluvím o ne příliš dobré pověsti, která Emulex provází... jestli zaslouženě nebo nezaslouženě, to nedovedu posoudit
26.6.2019 06:56:00   81.31.39.xxx 00
to mužu potvrdit, Qlogic jsou luxusní proti emulexu, a nejhorší je na serveru kde máte emulex FC i 10GB lan, obě karty mají do svého biosu stejnou klavesovou skratku obe bootujou hned po sobě a v Emulexu je strašný nastavení, nerozpozná sám že je ve fabric modu a přepína se na loop topologii atd. a dokumentace nic moc.
5.6.2019 15:27:53   195.113.58.xxx 101
Článek jako celek je pěkně napsaný, rozhodně je to článek pro dobrý start pro někoho, kdo má čas zkoušet a zajímá se o podobné věci. Chválím také doplnění Petrových osobních postřehů a vychytávek. Také se mi libí, že je tento článek součásti velkého seriálu a tak to dává větší hlavu a patu.

Co by se dle mého dalo zlepšit, je sepsání cenové kalkulace, kde se může navrhované řešení pohybovat (co kolik stojí u nás a co jde sehnat v dobré kvalitě mimo naše území viz zmínění AliE nebo E-Bay). Dát to celé přehledně do tabulky, aby to bylo přehledné a kdokoliv zvážil, zda se mu to vyplatí.
K 10 Gbps síti jsem se vyjadřoval v komentářích v minulém článku. Ano, pro toto použití je již na místě uvažovat o 10 Gbps síti, troufám si i tvrdit, že je to nezbytné. Ovšem pro "běžného" člověka, který tyto věci z principu nepotřebuje, to není cesta. Už v menších městech není samozřejmá přípojka na 1Gbps a to ještě nemluvím o tom, že mnoho poskytovatelů používá agregovaný princip připojení apod. skopičárny :-)

Suma sumárum? Článek mě nadchnul a váhám zda si něco takového v práci nepostavit a nerozchodit :-D Ovšem zatím řeším RAID v Linuxu a podobné opičárny :-D Článek má mouchy, ale plusy rozhodně převažují nad mínusy. Díky, snad se k tomu dostanu a také si něco vyzkouším. Je to paráda!
5.6.2019 15:56:10   91.139.122.xxx 41
Díky! A samozřejmě nemám patent na rozum.
Vždycky se snažím, aby se to líbilo a třeba to i někoho někam dál posunulo.
Možná vás potěší, že v rámci okurkové sezóny mám v plánu se podívat na RAID, iSCSI a další blbinky. Na podzim budou nová připojení k internetu, zatím to vypadá na slibn0 DSL ~500 Mbps a ~100 Mbps "pro každého". Postupně se snad objeví první 1 Gbps přípojky od T-mobile https://www.idnes.cz/mobil/mobilni-operatori/t-mobile-opticke-internetove-pripojeni-domacnosti-optika-opticka-pripojka-vystavba.A180111_151653_mobi..., snad budou první slušné Wi-Fi 6 zařízení včetně klientů a tak dále. Takže přes prázdniny můžu vystřílet všelijaké ty "docela zajímavé věci na hraní".
5.6.2019 19:07:05   46.229.239.xxx 10
Jednoznacne pekny clanok Mozno by nebolo na skodu doplnit aj obcas nejaky ten test. Ja som sa napriklad rozhodoval medzi ZFS a mdraid+ext4, teda aj porovnanie freeNAS a openmediavault. Nakoniec som siel radsej cestou mdraid+ext4 kedze IOPS su zalostne na ZFS ak nema dostatocny ARC size a nejake SSD pre ZIL, rovnako sa moc v advanced funkcionalite FS nehrabem. Ohladne testovania vykonu, vacsinou pouzivam https://www.phoronix-test-suite.com/. FC je super len co volume to pristup len pre jeden stroj kedze je to block storage device (ak ma teda niekto doma san switch) v tomto pripade je to teda o nieco "lepsie" riesenie ako cez USB.
5.6.2019 19:21:14   91.139.122.xxx 00
Tak předně děkuji :-)

Testy by si to skutečně zasloužilo.
Jenže to není jen tak, když vezmu starší 2 TB disky, kterých tu mám hromádku, mají zhruba o 30-40 MB/s nižší rychlost než moderní Exos nebo Iron Wolf Pro. Při pěti discích to může dělat ztrátu až 200 MB/s. No a že by mi chodily nabídky od Seagate nebo Westernu "Chceme dát/půjčit hromadu disků", to nechodí.

Chystám se mrknout na Raid, mám tu slušnou hromádku řadičů, tak to promyslím. Nebo jestli to přepočítat na procenta?

https://pctuning.tyden.cz/hardware/site-a-internet/52293-domaci-sitovani-disky-do-domacich-serveru-a-nas?start=9
10.6.2019 10:57:57   91.223.173.xxx 00
Článok aj s FC časžou OK. V rámci RAIDovania by bolo fajn spomenúť, aké radiče sa na FreeNAS hodia. HW raid karty to určite nie sú a v predchádzajúcom článku to je spomenuté len okrajovo. Majú svoje výhody, aj nevýhody. Osobne mám aj-aj, momentálne FreeNAS na flashnutej LSI 2008 SAS karte + pre kutilov, ktorý budú využívať všetko na ATX priblíženie ako správne využiť PCIe linky... Osadenie radiča, 10 Gb siete, grafiky, NVMe a linky došli alebo sa prepli do režimov, keď nie sú využité, ako by mohli byť...
5.6.2019 19:25:25   85.207.120.xxx 30
Ono tedy ten "mdraid" to taky není výhra. Když už jde o to mít SW RAID, tak je lepší mít určitě, opět s pomocí "mdadm", plnohodnotný SW RAID. Oproti tomu "podivnému", který spravuje jak IRST (v případě Intelu), tak jádro Linuxu a člověk má vlastně dvě rozhraní, je to čistě softwarově tvořené, samozřejmě také pomocí mdadm, jednoznačně lepší. Díky čistě SW řešení máte plnou správu, můžete celý RAID jednoduše přenést do jiného stroje, klidně i na AMD platformě, je to fuk. Tím, že si to celé řídí Linux, je to pohoda. Navíc je možné nastavit si mnohem lepší kontrolu díky CRONu, i práce a následná resuscitace je mnohonásobně rychlejší a bezpečnější. Ono když vám do degradovaného pole kecá jak jádro, tak IRST čip, poteš pán bůh. Nějaká pole jsem už obnovoval a na Windows to bylo vždy "o hubu", co se bude dít. V Linuxu je to lepší, člověk má vše víc pod kontrolou. A nebo... když už kvalitní RAID pole, které je i bezpečné, tak jedině HW řešení. Ano, je to drahé... od 7.000,- až klidně do stovek tisíců, ale samozřejmě, že pro "domácí" použití stačí bezpečně ten kolem 7.000,- Jinak, co jsem si navíc zjišťoval, tak u čistě SW RAIDu je RAID 1 v pohodě, nějak nezatěžuje systém. Problémy pak mohou být u RAID 5 apod., kde se počítají i paritní data a navíc se ještě stripuje na např. 4 HDD apod. Ale to už záleží, určitě se i já sám po tomto budu víc pídít, ale RAID1 je čistě SW v Linuxu "very best".
5.6.2019 19:34:51   91.139.122.xxx 20
HP P410 s 1 GB cache tuším, cena na Ebay 500,- Kč Pak se mi tu válí nějaká Areca, Dell Perc.. všechno na Ebay za pár stovek a udělají dost práce. Osobně jsem větší zastánce Raid 1 nebo Raid 0 než Raid 5 řešení, která umí být poněkud záludná. A když to jde řešit v hardware, taky výhoda. Jediné, co si říkám, jestli o tom má vůbec ještě smysl psát.

SSD 2TB:
https://www.alza.cz/intel-660p-m-2-2tb-ssd-nvme-d5484936.htm?o=2

Mimochodem jsem někde četl, že se očekává pokračování výprodeje těchto SSD, cena za 2TB SSD by se mohla ustáli někde okolo 3 tisíc Kč, což je aktuálně cena 1TB SSD.

Tak jestli se z toho nestaly už jen historické relikty.
5.6.2019 20:55:48   85.207.120.xxx 20
Co se týká těchto RAID karet, tak jsem je také našel od cca 500,- (i u nás) do 3.500,-, ale nevím jestli se nejedná o "fake HW RAID". Co jsem se informoval, tak se prodávají, klidně i za 4.000,- RAID karty, ale o čistě HW RAID se nejedná. Je to pak docela pech, když s tím člověk počítá, pole se mu zhroutí a ejhle!. Prý se na to musí dát opravdu pozor. HW RAID funguje PLNĚ samostatně, bez ovladačů v systému apod. Prostě se do konektorů pouze zapojí disky, v nějaké utilitě se nastaví typ RAID pole a systém to už dle toho vidí. Je pak velmi jednoduché s tím přejít do jakéhokoliv jiného stroje apod. Jako ano, musí tam být podpora ze strany systému, ale nejedná se o něco, na čem celé POLE padá a stojí. Pak je tu právě ten fake RAID HW nebo SW, záleží. To jsou ty Intelácké v MB a jiné karty právě za podezřelých 500,- apod. Ty fungují pouze s ovladači a danou řadou čipů apod. Kdž odejde čip je pak otázka, zda půjde pole rekonstruovat na jiné třeba ob 5 generací jiném MB. Ten čistě Linuxový RAID s pomocí mdadm to má právě vyřešené vše, jak správu, tak jednoznačnost toho, že člověk ví, na čem je. Důležité je pole po sestavení ozkoušet. Neříkám, že to jde lehce, ale jde to. U SW RAIDu v Linuxu stačí nastavit špatné hodnoty a pole se poměrně brzo degraduje pro chybovost. U HW RAIDu je to více problematické. Ovšem pokud to lze, určitě vyzkoušet, min. 3x degradovat a pak ho opět na čistém disku povýšit a nechat zrekonstruovat. Jinak je to loterie, vyjde to? Nevyjde to? Funguje? Nefunguje? Mnoho lidí pak "jede" třeba i půl roku na degradovaném poli a vůbec o tom neví. To je pak něco, když je problém!
5.6.2019 21:04:35   85.207.120.xxx 21
Jinak jestli o tom psát nebo ne... Myslím si, že to není na škodu a tím spíše ne v tvém podání. Osobně si myslím, že například výkon pevných PC je už pro mnoho lidí dostatečných a když za mnou přijdou, že mají 30.000,- na nový stroj, vždy stavím RAID1 pole. Uživatel o tom samozřejmě ví. Je to ovšem jednoznačné správné investování peněz. Výkon je dostatečný už za těch 20.000,- Takže volba NVMe SSD na systém a 2x HDD do RAIDu je jasná! . Systém naisnatluji, udělám obraz, ten dám na RAID a tradá... Jsem prostě toho názoru, že mnoho lidí i RAID uvítá, ale nidko jim o tom nic nepoví nebo o tom ví prd a neumí to nastavit nebo neví, jaké řešení zvolit. Jsou i firmy, které jsou za RAID velmi rádi, přijít o data je pro ně velkou ztrátou ... jsem tedy PRO, napsat o tom článek.
5.6.2019 22:22:23   188.112.66.xxx 00
jo jo mdraid pouzivam max. na RAID1, RAID0 som po pravde asi nikdy nepouzil jedine ak RAID10. RAID6 jedine na HW RAID. Mam hlavne skusenosti s Dell PERC, tam sa jednoznacne vyhnut rade H3XX a nizsie, jedine pouzitelne su H7XX a pre external SAS H8XX pri oboch je aj bateria. V ramci enterprise storage sa ale samozrejme pouzivaja uz uz raid storage pool kedy sa zapisuje pocas dna do RAID10 a povedzme ze v noci zbehne snapshot s data progression do RAID5/6 pricom velkost RAID poolov sa dynamicky meni + tiering podla vykonu HDD/SSD a on-demand data progression ale na doma to asi nebude Teraz na firme rozbieham Ceph spolu s Proxmox, Ceph je ale podla mna realne pouzitelny len nad SSD, popripade vyuzivat tiez tiering.
5.6.2019 22:23:38   91.139.122.xxx 00
To vyžadování ovladačů, to je (myslím) trochu sporné. Ovladače jsou vyžadovány i u hodně drahých adaptérů, které bych určitě z nepodezíral z toho, že něco emulují. Teoreticky je možné za plně hardwarový RAID označit cokoliv, co má vlastní cache, vlastní BIOS a umí z BIOS provést rebuild pole. Ale ...

Spíš třeba přemýšlím nad způsobem použití. Někdy může být RAID i kontraproduktivní. Třeba při stříhání videa může být rychlejší z jednoho disku číst a na druhý zapisovat, než je spojit do RAID.

U databází zase začíná ladění výkonu systému u operační paměti. (Pokud vynechám použitý databázový server, indexování, formulace dotazů a další nastavení specifická pro konkrétní DB.)

Další běžný problém je, že disk není v celém průběhu stejně rychlý, jak se hlavička blíží ke středu, přenosová rychlost klesá. Pak je lepší disk rozdělit na několik oddílů a na konec disku dát něco, k čemu se nepřistupuje.
Lidé často postupují obráceně, zaplácnou si rychlý začátek pevného (rotačního) disku archivy a pak pracují v částech méně rychlých a s vyšší přístupovou dobou. Nojo, ale jak to napsat, aby to nebyly jen spekulace.
6.6.2019 06:57:45   78.102.88.xxx 00
HW RAID je takový, který veškeré operace provádí samostatně svými hardwarovými prostředky, má tedy vlastní CPU a vlastní RAM.
SW RAID je takový, který část operací provádí v ovladači pomocí CPU a RAM z počítače.
Mimo to ještě existuje RAID v OS, např. mdadm nebo zfs, kde logicky probíhá v OS všechno.
6.6.2019 07:06:06   195.113.58.xxx 10
Ovladače jsou potřeba to ano (systém musí vědět, jak se má k tomu kusu HW chovat), ale jak jsem psal výše, nesmí to být podmínka sestavení pole, to si musí "ošéfovat" ta karta, stejně tak jako rebuild pole apod. => takže se shodneme
Jinak ano, jsou situace a není jich málo, kdy je RAID kontraproduktivní a nebo naopak není vhodný RAID1, ale třeba na ty databáze je vhodný RAID 10 (opravte mě, jestli se mýlím), protože tam se dosáhne u takovýchto souborů poměrně dobré rychlosti. U stříhání videa je toho víc, výkonný CPU, rychlá a veliká RAM a když někdo jóó stříhá a vydělá si, tak proč ne SSD disk, ale zase kvalitní, aby něco vydržel.
U HDD chápu jak to myslíš, je to tak. Pro běžné uživatele, kteří si hlavně stahují fotky z dovolené apod. je to ovšem jedno, ti to nepoznají. Obecně to prý není tak rapidně znát. Opět musí dojít k nějaké konkrétní aplikaci.
6.6.2019 07:12:35   195.113.58.xxx 10
To: rnb
HW je tedy jasný, ale ty dva druhy SW, to už je takové "kulišácké". Resp. opět jak jsem psal výše. Oba jsou SW RAIDy, ale ten druhý tebou popsaný je takový HW/SW RAID, což je dle mého horší, kvůli správě. Zapne se v BIOSu, nastaví se a pak už přichází na řadu systém. V Linuxu se vytvoří pomocí mdadm tzv. mdRAID. Jeho správa je pak ale složitější a člověk nemá vše plně pod kontrolou (z části to řídí WH a z části to řídí systém). Druhá varianta je tento HW/SW RAID v BIOSu vypnout a pomocí mdadm v Linuxu vytvořit plnohodnotný SW RAID, který se spravuje jasně a administrátor jej má plně pod kontrolou. Nekecá mu do toho nikdo výše. Nebo se pletu? Když tak mě opravte.
6.6.2019 07:48:32   78.102.88.xxx 00
SW RAID bylo levné řešení pro OS, které neuměly RAID vlastními prostředky, např. Windows XP. Dneska umí každý OS RAID, tudíž SW RAID ztratil tak trochu smysl smysl.

Jeden rozdíl ale zůstal, SW RAID umí nabootovat při poškozeném HDD. OS s RAID v OS bootuje pouze z jednoho HDD a pokud tento bootovací je poškozen, tak smůla.
6.6.2019 07:59:58   109.107.210.xxx 00
OS bootuje z disku/disků, který/které je/jsou nastaven(y) pro boot v BIOSu.
Pro UEFI boot platí podobná pravidla.

Tudíž není pravda, že nelze nabootovat s čistě sw raidem (např. mdraid) z pole, jehož první disk je K.O.

Samozřejmě pro SW RAID platí podmínka, že bootovací oddíl může být pouze typu R1 a pro mdraid a UEFI se navíc doporučuje, aby UEFI partition byla vytvořena jako pole se superblokem verze 1.0 (tedy až na konci).
6.6.2019 08:12:44   78.102.88.xxx 00
A je na druhém a dalším bootloader? Odpovím si sám pouze výjimečně, defaultně nikoliv, zejména ne s mdadm.
6.6.2019 08:38:17   109.107.210.xxx 00
Jistě že je. To je totiž základní krok pro admina serveru, aby distribuoval bootloader na všechny disky, na kterých je pole s bootovacím oddílem a následně otestoval i výpadek.

BTW s UEFI se toto už neřeší (řeší se naopak problémy s mírně hloupými instalátory, které nechápou, že lze UEFI umístit i na md device).
6.6.2019 08:39:22   195.113.58.xxx 00
Ano, problém s tím je, ale řešit to také lze, leč už ne uživatelsky a navíc při výpadku disku je nezbytný zásah administrátora, jinak se systém opravdu nespustí.
6.6.2019 07:53:16   109.107.210.xxx 00
běžně se těmto "HW/SW" hybridům říká FakeRAID. Problém jsou jejich ovladače a integrace do OS. U mdraid se obecně NEdoporučuje tento hybrid používat.
6.6.2019 08:04:30   195.113.58.xxx 00
Je pravdou, že v Linuxu se způsob zavádění systému z pole nedoporučuje, ale jde to ošetřit tím, že se upraví správně GRUB a rozdělení disků a pak je jedno, který disk z pole vypadne, jen je třeba "větší" a komplikovanější zásah. Ale ano, máš pravdu v tom, že je to problém, systém si s tím jednoduše neporadí sám. Ovšem i tak mi přijde způsob použití čistě SW RAIDu (pouze v OS) lepší, než onen hybrid. V podstatě jde hlavně o data. Osobně u lidí, kteří to ode mě vyžadují, dělám přesměrování téměř celého profilu na datový disk a tak u systému si vystačím pouze s obrazem a data jsou chráněna RAIDem. Rekonstrukce dat z hybridních RAIDů není vždy tak jednoduchá a ne vždy se podaří.
6.6.2019 10:24:46   109.107.210.xxx 00
Ano, právě proto je fakeraid zlo a čistý mdraid funguje prakticky bez potíží kdekoli. Už jsem tahal data z disků R5 Synology připojených na jiném PC, bez potíží lze vyměnit motherboard za jinou platformu apod.

Prostě nedává smysl se vázat na Intelí nebo AMDčkový fakeraid.

Osobně jsem zastáncem RAID i na OS (včetně swapu).
6.6.2019 12:20:18   37.221.252.xxx 00
Tak přesně proto jsem přešel na softwarový RAID a ZFS pod linuxem. Kdyby nedej bože umřel podvozek, disky dám jinam, nabootuju liveUSB Ubuntu, doinstaluju ZFS (sudo apt install zfsutils-linux), naimportuju pool (sudo zpool import) a data mám přístupné na jakékoliv paštice se 4xSATA.
Nemusím řešit žádný hardware, licence, přídavné karty, jen jestli na tom spustím Ubuntu (a to spustím na kde čem).
Měl jsem i HW RAID, ale ksama arta žrala 10W, scrub trval tejden (no asi den/dva), jednou nastavené pole šlo upravovat/rozšiřovat jen cestou zničit/udělat nové prostě fuj, inicializace trvala snad ještě dýl než scrub. Prostě bída.
6.6.2019 13:43:30   185.124.86.xxx 00
Prostě HW RAID nepotřebuješ :-) Hlavní deviza profesionálního HW RAIDu je konzistence dat, kdy pole nerozhodní ani výpadek proudu (je tam baterka nebo kondenzátor) ani pád OS a trochu je to rychlejší díky write-back cache. Na produkčních serverech proto bývá HW RAID rovnou na motherboardu.

Profesionální HW RAID má inicializaci on-the-fly, nezdržuje to.
6.6.2019 15:23:35   109.107.210.xxx 00
Ono se ale ukazuje, že ani ty HW řadiče nejsou úplně neprůstřelné.

Na druhou stranu, od dob, kdy jsou FS plně žurnálovací, tak to s tou inkonzistencí není zase tak hrozné. Navíc trendy u SANu apod. jdou spíše směrem k tomu SW RAIDu, podobně jsou na tom třeba EMC DataDomain.
6.6.2019 23:46:28   78.102.88.xxx 00
Plky o žurnálovacích FS sis mohl nechat od cesty, sice je zažurnálována velikost souboru, ale nikoliv obsah. Je třeba více studovat a méně myslet na nesmysly, už mnohokrát jsem viděl soubor který měl uvnitř samé nuly, ty trubko.
7.6.2019 05:57:35   109.107.210.xxx 01
Jak souvisí obsah souboru s integritou pole, ty nulo?
5.6.2019 21:48:18   81.0.198.xxx 10
Super článek, zvláště ty SAN sítě.
Přijde mi vtipné že před asi cca rokem jsem tu řešil přechod z WHS 2011 na něco aktuálnějšího. Byl jsem nakloněn FreeNas protože jsem ho znal z doby než jsem zjistil že WHS stál jen 1000 kč. Ale komunita mě překecala na OpenMediVault hlavně díky BTRFS. A už nějaký ten pátek mi to běží ale přijde mi že tak nějak nad propastí. LOG je plnej chyb kterým nerozumím, webové rozhraní se občas rozpadá a píše chyby. A ty pluginy jsou peklo. Nepodařilo se mi rozjet UPSku, Virtualbox způsoboval zámrz celého serveru a to rozhraní co tam je úplně k ničemu, nejde tam nic doinstalovat, třeba Mega.nz.
A plugin který má syncovat do cloudu včetně Mega vypadá jak kdyby ho dělal školák a nikdo nikde mi neporadil jak ho zprovoznit. A nejhorší na to je že současný OMV4 btrfs umí jen na oko. Veškeré nastavení se dělá ve shellu a to je pro mě peklo. Prý OMV5 by mělo být lepší ale to bude bůhví kdy.

--> V blízké době chci svůj server trošku upgradovat, koupil jsem si na Bazoši Intel Optane 16GB a vyzkoušet na své základní desce SABERTOOTH 990FX R2.0 bifurikaci pcie 16x (https://www.lan-shop.cz/delock-89835-237549). Takže bych tam mohl bouchnout rovnou FreeNas, akorát pořád nevím BTRFSvsZFS.

Takže abych to shrnul, mám zase nad čím přemýšlet

Super článek
5.6.2019 22:08:55   91.139.122.xxx 10
Děkuji! Mimochodem, ten delock je poměrně drahý. Dal se koupit i kousek od ASUSu a tuším Asrocku.

Konkrétně:
ASUS HYPER M.2 X16 CARD V2
ASROCK ULTRA QUAD M.2 CARD
A ještě nějací výrobci.

Cena nebyla zlá, asi 900 včetně DPH, ještě v listopadu se to dalo normálně koupit i u nás. Nakonec jsem do toho nešel, protože bifurkace není úplně běžná, vesměs to umí jen chipsety vyšší řady.
5.6.2019 22:18:34   81.0.198.xxx 10
No 990FX je nejvyšší z řady a ta základní deska je taky téměř nejvyšší řada, krom těch ROG který měli akorát červenou barvu a nějaký RGB ledky.
Prý to záleží na BIOSu, tak trochu doufám že Asus myslel i na toto, když jako jediný podporu ECC RAM, a taky můžu bootovat z NVMe i když slot M2 má až verze R3.

PS: Taky se moc těším na toto https://www.innodisk.com/en/products/embedded-peripheral/display/EGPV-1101 Ale to sem nepatří
5.6.2019 22:37:50   91.139.122.xxx 00
Ohledně bifurkace, to není jen o podpoře BIOS, se obávám. Mimo to, jednoduchou bifurkaci umí skoro všechny Z chipsety Zx70 i lepší AMD. Problém je, že umějí rozdělit PCIe x16 jen na 2x PCIe x8. Kdežto pro ty adaptéry je potřeba, nebo by bylo lepší, PCIe x8 rozdělit na další 4x2x linky. Bohužel, skutečně dobrých článků o bifurkaci jsem moc nenašel. Vesměs jen dohady z diskuzí, kdy nevíte, jestli to je pravda nebo není.

PS: Ta integrovaná grafika je docela zajímavá :-)

Já trochu pokukuji po tomhle
https://www.aliexpress.com/item/32969768551.html?storeId=1553371

Zajímá mě na tom ten PCIe slot, jestli pak by šlo připojit nějakou solidní grafiku https://www.aliexpress.com/item/32836054816.html
5.6.2019 22:43:15   81.0.198.xxx 10
No i kdyby ten ORANGE PI měl do M2 slotu víc než jednu linku tak ten adaptér vede jen jednu linku.
Všechny tyhle adaptéry jsou pro účely těžení kryptoměn a ty jedou na jedné lince.
6.6.2019 08:19:35   193.86.27.xxx 00
Ty karty Asus a Asrock se na českém trhu už fakt nedají sehnat. Jen Amazon. Je to škoda.
Ale díky za tip
5.6.2019 22:34:46   188.112.66.xxx 00
no BTRFS som uz zavrhol ten projekt sa taha vecnost a stale nemam pocit ze by bol stable neviem ako je na tom aktualne ZFS on linux ale co som pocul tak to uz nie je take zle, na druhu stranu ak ZFS tak asi jedine FreeNAS ak teda realne aj vyuzijes taky FS Ja bezim tiez na OMV4 ale vo virtuale na Proxmoxe, v OMV potom vyuzivam docker na dalsie blbosti a docker ovladam cez celkom pekne web rozhranie Portainer. NUT plugin fungoval vseliako na mojej starej lacnej UPS po vymene za lepsiu UPS no problem. Nad OMV by som virtual box nedaval to uz radsej cez openmediavault extras doinstalovat pekne Proxmox a vyuzivat kvm/qemu.
6.6.2019 07:25:45   37.221.252.xxx 10
ZFS mám na Ubuntu 18.04.02 a jediný problém mám s tím, že po restartu celého serveru se né vždy připojí všechny pooly a musím je importovat ručně. V tomto se to chová nevyzpytatelně a zatím jsem nepřišel na to, proč se tak děje.
"sudo zpool import zpool_blablabla" a je hotovo.

Na ZFS se mi líbí jeho odolnost, expandovatelnost, nenáročná onfly komprese(lz4) která obzvášť u VM ušetří dost místa a rychlý scrub. Taky je docela přívětivý pro různé experimentování, kdy si můžete za chodu vytvořit nový ZFS(na jedoucím poolu) a nastavit mu úplně jiné vlastnosti, tedy klidně deduplikaci a kompresi gzip-9 a testovat jak se to chová(vytížení cpu, spotřeba paměti deduplikací, rychlost zápisu/čtení) jen na tom jednom ZFS bez jakéhokoliv ovlivnění zbytku dat. Po testu zameteš "sudo zfs destroy zpool_data/test" a je hotovo.
6.6.2019 10:23:13   62.141.0.xxx 00
Tak koukam po letech u OMV zadna zmnena... stale nedodelanej a polofunkcni slepenec.
ZFS mi pro ucely bezneho domaciho skladiste dat prislo ne jako kanon, ale atomova bomba na vrabce :-D

Nakonec pouzivam unRAID, co do rychlosti a pohodlnosti konfigurace (a nutnosti ruznych dodleavek v CLI) se to s vyse uvedenymi neda srovnat. Pokud pominu poskladani HW, tak OS a dopolnkove sluzby nastavene (naklikane) skoro drive nez FreeNAS nabootuje...
6.6.2019 00:19:15   81.0.198.xxx 20
Ty 10GB karty jsou pro mě totální objev A dokonce jsou jen PCIE2.0 takže mi poběží na plný výkon.
Chtěl jsem časem koupit ty nové ale jsou až PCIE3.0 tudíž by u mě nešli naplno.
6.6.2019 13:20:25   93.215.109.xxx 10
Tak tohle je fakt hustej clanek ve vsech smerech (jak zajimavosti, tak mnozstvim informaci na ctverecni palec). O dovolene si ho s dovolenim poradne prostuduju a nakoupim nejake FC karty.
6.6.2019 17:29:15   193.86.27.xxx 00
Já jsem taky chtěl nakoupit ale pak jsem si uvědomil že s 10GB ethernet můžeš v klidu použít iSCSI nebo Ata-over-ethernet a utahá to najednou několik plotnových disků

Dá se to přepočítat i na to kolik ti to zabere pcie slotů
10.6.2019 12:47:46   80.188.171.xxx 10
Pěkný článek. Na domácí hraní celkem adekvátní HW :-) Škoda, že jsou fiberové MDS switche tak drahé, s tím se dá taky vymyslet spousta scénářů.

Jen takový tip na příště, možná by i více lidí zajímalo jak se dá vyždímat maximum ze stávajících podmínek. Např. neřetězit switche pokud to jde, nastavení JumboFrame na oddělenou VLAN, použití levnějších metalických 10GB adaptérů po kratších Cat 5e kabelech, jak efektivně zálohovat atd. :-)
10.6.2019 14:24:05   81.0.198.xxx 00
Myslím že autor v minulosti již měl články na podobnou tématiku.
10.6.2019 15:47:31   80.188.171.xxx 00
Aha, mrknu :-)
24.6.2019 10:59:08   165.225.84.xxx 00
FreeBSD je skvělý, měl jsem na něm server řadu let a FreeNAS je super, akorát bych nešel do FreeNAS bez pamětí s kontrolním součtem, jednak sluneční záření je svině a může to člověku shodit celé pole, to soudruzi z FreeNAS moc nedomysleli, holt spoléhají na HW a korekci chyb.

Jinak článek super, pěkná přehlídka technologie, ale za tyhle peníze bych už spíš koupil klasický server do racku...

Na domácí použití mi to připadá buď jako overkill, pokud někdo nestříhá denně videa pár hodin a když už je to třeba mi ta bedna připadá směšně malá, bych volil klasický server do racku a nebo něco s hot swap disky.

Ale na hraní super, a článek bezva, ještě jsem neměl v ruce SAN (mám doma dva NASy) a dostal jsem ho chuť si udělat , takže motivace zapůsobila .

Ale prakticky bych to řešil jinak. Buď pro produkci do toho šlápnout naplno a nebo pro homemade to nedělat vůbec, v takovéhle podobě je to tak napůl cesty a je to jen přehlídka vychytávek...

Ale článek super.

Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz

49 čtenářů navrhlo autorovi prémii: 22.1Kč Prémie tohoto článku jsou již uzavřené, děkujeme za váš zájem.
Tento web používá k poskytování služeb soubory cookie.