Nvidia Corp. sot zbuloi se ka blerë Run:ai, a startup me softuer për optimizimin e performancës së grupeve të kartave grafike.
Kushtet e marrëveshjes nuk u zbuluan. TechCrunch, duke cituar dy njerëz të njohur me këtë çështje, raportuar se transaksioni vlerëson Run:ai në 700 milionë dollarë. Kjo është gati gjashtë herë më shumë se shuma e financimit të bazës në Tel Aviv startup kishte ngritur para blerjes.
Run:ai, zyrtarisht Runai Labs Ltd., ofron softuer për përshpejtimin e grupeve të serverëve të pajisur me njësi përpunimi grafike. Sipas kompanisë, një mjedis GPU i mundësuar nga teknologjia e saj mund të ekzekutojë deri në 10 herë më shumë ngarkesa të AI sesa do të ishte e mundur ndryshe. Ai rrit performancën e AI duke rregulluar disa joefikasitete të zakonshme të përpunimit që shpesh prekin serverët me GPU.
Çështja e parë që adreson Run:ai buron nga fakti se modelet e AI shpesh trajnohen duke përdorur karta grafike të shumta. Për të shpërndarë një rrjet nervor në një grup GPU, zhvilluesit e ndajnë atë në fragmente të shumta softuerësh dhe e trajnojnë secilin në një çip të ndryshëm. Këto fragmente të AI duhet të shkëmbejnë rregullisht të dhëna me njëri-tjetrin gjatë procesit të trajnimit, gjë që mund të çojë në probleme të performancës.
Nëse një fragment i AI duhet të shkëmbejë të dhëna me një pjesë tjetër të rrjetit nervor që aktualisht nuk funksionon, do të duhet të pezullojë përpunimin derisa moduli i fundit të vijë në linjë. Vonesat që rezultojnë ngadalësojnë rrjedhën e trajnimit të AI. Run:ai siguron që të gjitha fragmentet e AI që nevojiten për të lehtësuar një shkëmbim të dhënash janë online në të njëjtën kohë, gjë që heq vonesat e panevojshme të përpunimit.
Softueri i kompanisë gjithashtu shmang të ashtuquajturat përplasje të kujtesës. Këto janë situata ku dy ngarkesa pune të AI përpiqen të përdorin të njëjtin seksion të memories së një GPU menjëherë. GPU-të zgjidhin gabime të tilla automatikisht, por procesi i zgjidhjes së problemeve kërkon kohë. Gjatë një sesioni trajnimi të AI, koha e shpenzuar për rregullimin e përplasjeve të kujtesës mund të rritet ndjeshëm dhe të ngadalësojë përpunimin.
Kryerja e ngarkesave të shumta të punës së AI në të njëjtin grup GPU mund të çojë gjithashtu në lloje të tjera të pengesave. Nëse një nga ngarkesat e punës kërkon më shumë harduer sesa pritej, mund të përdorë infrastrukturën e alokuar për aplikacionet e tjera dhe t’i ngadalësojë ato. Run:ai përfshin veçori që sigurojnë që çdo model i AI të marrë burime të mjaftueshme harduerike për të përfunduar detyrën e caktuar pa vonesa.
“Kompania ka ndërtuar një platformë të hapur në Kubernetes, shtresa e orkestrimit për inteligjencën moderne artificiale dhe infrastrukturën e resë kompjuterike,” tha Alexis Bjorlin, nënkryetar dhe menaxher i përgjithshëm i njësisë DGX Cloud të Nvidia. postim në blog. “Ai mbështet të gjitha variantet e njohura të Kubernetes dhe integrohet me mjetet dhe kornizat e AI të palëve të treta.”
Run:ai shet platformën e saj kryesore të optimizimit të infrastrukturës së bashku me dy mjete të tjera softuerike. E para, Run:ai Scheduler, ofron një ndërfaqe për shpërndarjen e burimeve të harduerit për ekipet e zhvillimit dhe projektet e AI. Kompania ofron gjithashtu Run:ai Dev, i cili i ndihmon inxhinierët të vendosin më shpejt mjetet e kodimit që përdorin për të trajnuar rrjetet nervore.
Nvidia dërgon softuerin e Run:ai me disa nga produktet e saj. Linja përfshin Nvidia Enterprise, një grup mjetesh zhvillimi që prodhuesi i çipave ofron për GPU-të e qendrës së të dhënave të tij, si dhe serinë e saj DGX të pajisjeve të optimizuara me AI. Run:ai është gjithashtu i disponueshëm në DGX Cloud, një ofertë përmes së cilës kompanitë mund të aksesojnë pajisjet e AI të Nvidia në retë kryesore publike.
Bjorlin tha se prodhuesi i çipave do të vazhdojë të ofrojë mjetet e Run:ai sipas modelit aktual të çmimeve “për të ardhmen e parashikueshme”. Paralelisht, Nvidia do të lëshojë përmirësime të produkteve për softuerin me fokus në veçoritë që mund të ndihmojnë në optimizimin e mjediseve DGX Cloud.
“Klientët mund të presin të përfitojnë nga përdorimi më i mirë i GPU-së, menaxhimi i përmirësuar i infrastrukturës GPU dhe fleksibilitet më i madh nga arkitektura e hapur,” detajoi Bjorlin.
Foto: Nvidia
Vota juaj e mbështetjes është e rëndësishme për ne dhe na ndihmon ta mbajmë përmbajtjen FALAS.
Një klikim më poshtë mbështet misionin tonë për të ofruar përmbajtje falas, të thellë dhe relevante.
Bashkohuni me komunitetin tonë në YouTube
Bashkohuni me komunitetin që përfshin më shumë se 15,000 ekspertë #CubeAlumni, duke përfshirë CEO të Amazon.com, Andy Jassy, themeluesin dhe CEO të Dell Technologies, Michael Dell, CEO të Intel, Pat Gelsinger, dhe shumë të tjerë ndriçues dhe ekspertë.
FALEMINDERIT