Ne dovolite, da shranjevanje postane ključno ozko grlo pri usposabljanju modelov

Rečeno je bilo, da se tehnološka podjetja bodisi borijo za GPU ali pa so na poti, da jih pridobijo.Aprila je izvršni direktor Tesle Elon Musk kupil 10.000 grafičnih procesorjev in izjavil, da bo podjetje še naprej kupovalo veliko količino grafičnih procesorjev od NVIDIA.Na strani podjetja si IT-osebje močno prizadeva zagotoviti, da se grafični procesorji nenehno uporabljajo za čim večjo donosnost naložbe.Vendar pa lahko nekatera podjetja ugotovijo, da medtem ko se število grafičnih procesorjev poveča, nedejavnost grafičnih procesorjev postane hujša.

Če nas je zgodovina česa naučila o visokozmogljivem računalništvu (HPC), je to, da shranjevanja in mreženja ne bi smeli žrtvovati na račun prevelikega osredotočanja na računalništvo.Če shranjevanje ne more učinkovito prenesti podatkov v računalniške enote, tudi če imate največ grafičnih procesorjev na svetu, ne boste dosegli optimalne učinkovitosti.

Po mnenju Mikea Matchetta, analitika pri Small World Big Data, je mogoče manjše modele izvajati v pomnilniku (RAM), kar omogoča večjo osredotočenost na računanje.Vendar pa večjih modelov, kot je ChatGPT z milijardami vozlišč, ni mogoče shraniti v pomnilnik zaradi visokih stroškov.

»V pomnilnik ne morete namestiti milijard vozlišč, zato postaja shranjevanje še pomembnejše,« pravi Matchett.Na žalost je shranjevanje podatkov med načrtovanjem pogosto spregledano.

Na splošno, ne glede na primer uporabe, obstajajo štiri skupne točke v procesu usposabljanja modela:

1. Usposabljanje modela
2. Uporaba sklepanja
3. Shranjevanje podatkov
4. Pospešeno računalništvo

Pri ustvarjanju in uvajanju modelov večina zahtev daje prednost hitremu dokazovanju koncepta (POC) ali testnim okoljem za začetek usposabljanja za modele, pri čemer se potrebe po shranjevanju podatkov ne upošteva.

Vendar pa je izziv v tem, da lahko usposabljanje ali uvajanje sklepanja traja več mesecev ali celo let.Številna podjetja v tem času hitro povečajo velikost svojih modelov, infrastruktura pa se mora razširiti, da bo ustrezala rastočim modelom in naborom podatkov.

Googlova raziskava o milijonih delovnih obremenitev usposabljanja ML razkriva, da se povprečno 30 % časa usposabljanja porabi za cevovod vhodnih podatkov.Medtem ko so se pretekle raziskave osredotočale na optimizacijo grafičnih procesorjev za pospešitev usposabljanja, še vedno ostaja veliko izzivov pri optimizaciji različnih delov podatkovnega cevovoda.Ko imate veliko računsko moč, postane pravo ozko grlo, kako hitro lahko vnesete podatke v izračune, da dobite rezultate.

Natančneje, izzivi pri shranjevanju in upravljanju podatkov zahtevajo načrtovanje rasti podatkov, kar vam omogoča nenehno pridobivanje vrednosti podatkov, ko napredujete, zlasti ko se podate v naprednejše primere uporabe, kot so globoko učenje in nevronske mreže, ki postavljajo višje zahteve shranjevanje v smislu zmogljivosti, zmogljivosti in razširljivosti.

Še posebej:

Razširljivost
Strojno učenje zahteva ravnanje z ogromnimi količinami podatkov in z večanjem količine podatkov se izboljšuje tudi natančnost modelov.To pomeni, da morajo podjetja vsak dan zbrati in shraniti več podatkov.Ko shranjevanja ni mogoče povečati, delovne obremenitve, ki zahtevajo veliko podatkov, ustvarjajo ozka grla, omejujejo zmogljivost in povzročajo drag čas mirovanja GPE.

Prilagodljivost
Prilagodljiva podpora za več protokolov (vključno z NFS, SMB, HTTP, FTP, HDFS in S3) je potrebna za izpolnjevanje potreb različnih sistemov, namesto da bi bila omejena na eno samo vrsto okolja.

Zakasnitev
V/I zakasnitev je kritična za gradnjo in uporabo modelov, saj se podatki berejo in ponovno berejo večkrat.Zmanjšanje zakasnitve V/I lahko skrajša čas usposabljanja modelov za dneve ali mesece.Hitrejši razvoj modela neposredno pomeni večje poslovne prednosti.

Prepustnost
Pretok sistemov za shranjevanje je ključnega pomena za učinkovito usposabljanje modelov.Procesi usposabljanja vključujejo velike količine podatkov, običajno v terabajtih na uro.

Vzporedni dostop
Da bi dosegli visoko zmogljivost, modeli usposabljanja razdelijo dejavnosti na več vzporednih nalog.To pogosto pomeni, da algoritmi strojnega učenja dostopajo do istih datotek iz več procesov (po možnosti na več fizičnih strežnikih) hkrati.Sistem za shranjevanje mora obravnavati sočasne zahteve brez ogrožanja zmogljivosti.

S svojimi izjemnimi zmožnostmi pri nizki zakasnitvi, visoki pretočnosti in obsežnih vzporednih V/I je Dell PowerScale idealno dopolnilo za shranjevanje z GPU-pospešenim računalništvom.PowerScale učinkovito zmanjša čas, potreben za modele analize, ki usposabljajo in testirajo večterabajtne nize podatkov.V pomnilniku PowerScale all-flash se pasovna širina poveča za 18-krat, kar odpravlja ozka grla V/I, in ga je mogoče dodati obstoječim gručem Isilon za pospešitev in odklepanje vrednosti velikih količin nestrukturiranih podatkov.

Poleg tega zmogljivosti dostopa z več protokoli PowerScale zagotavljajo neomejeno prilagodljivost za izvajanje delovnih obremenitev, kar omogoča shranjevanje podatkov z enim protokolom in dostop do njih z drugim.Natančneje, zmogljive funkcije, prilagodljivost, razširljivost in funkcionalnost na ravni podjetja platforme PowerScale pomagajo pri reševanju naslednjih izzivov:

- Pospešite inovacije do 2,7-krat, s čimer zmanjšate cikel usposabljanja modela.

- Odpravite I/O ozka grla in zagotovite hitrejše usposabljanje in validacijo modela, izboljšano natančnost modela, izboljšano podatkovno znanstveno produktivnost in povečano donosnost naložb v računalništvo z izkoriščanjem funkcij poslovnega razreda, visoko zmogljivostjo, sočasnostjo in razširljivostjo.Izboljšajte natančnost modela z globljimi nabori podatkov z višjo ločljivostjo, tako da izkoristite do 119 PB učinkovite pomnilniške zmogljivosti v eni gruči.

- Dosezite uvajanje v velikem obsegu tako, da začnete z majhnim in neodvisnim prilagajanjem računalništva in shranjevanja, kar zagotavlja zanesljivo zaščito podatkov in varnostne možnosti.

- Izboljšajte produktivnost podatkovne znanosti z analitiko na mestu in vnaprej preverjenimi rešitvami za hitrejše uvajanja z nizkim tveganjem.

- Izkoriščanje preizkušenih zasnov, ki temeljijo na najboljših tehnologijah, vključno s pospeškom NVIDIA GPU in referenčnimi arhitekturami s sistemi NVIDIA DGX.Visoka zmogljivost in sočasnost PowerScale izpolnjujeta zahteve glede zmogljivosti shranjevanja na vseh stopnjah strojnega učenja, od pridobivanja in priprave podatkov do usposabljanja za model in sklepanja.Skupaj z operacijskim sistemom OneFS lahko vsa vozlišča nemoteno delujejo znotraj iste gruče, ki jo poganja OneFS, s funkcijami na ravni podjetja, kot so upravljanje zmogljivosti, upravljanje podatkov, varnost in zaščita podatkov, kar podjetjem omogoča hitrejše dokončanje usposabljanja za model in validacijo.


Čas objave: 3. julij 2023