Kreditë e imazhit: FlexAI // Bashkëthemelues dhe CEO Brijesh Tripathi
Një francez startup ka ngritur një trupmadh seed investim për të “riarkitektuar infrastrukturën kompjuterike” për zhvilluesit që dëshirojnë të ndërtojnë dhe trajnojnë aplikacionet e AI në mënyrë më efikase.
FlexAI, siç quhet kompania, ka operuar në fshehtësi që nga tetori i vitit 2023, por kompania me bazë në Paris po lançon zyrtarisht të mërkurën me 28.5 milionë euro (30 milionë dollarë) në financim, ndërsa ngacmon produktin e saj të parë: një shërbim cloud sipas kërkesës për trajnimin e AI.
Ky është një ndryshim i vogël për një seed rrumbullakët, që normalisht do të thotë origjinë thelbësore e themeluesit – dhe ky është rasti këtu. Bashkëthemeluesi dhe CEO i FlexAI Brijesh Tripathi ishte më parë një inxhinier i lartë dizajni në gjigantin GPU dhe tani AI i dashur Nvidia, përpara se të zbriste në role të ndryshme inxhinierike dhe arkitektonike në Apple; Tesla (duke punuar drejtpërdrejt nën Elon Musk); Zoox (përpara se Amazon të fitonte drejtimin autonom startup); dhe, së fundmi, Tripathi ishte Zëvendëskryetar i degës së AI dhe platformës super kompjuterike të Intel, AXG.
Bashkëthemeluesi dhe CTO i FlexAI Dali Kilani ka gjithashtu një CV mbresëlënëse, duke shërbyer në role të ndryshme teknike në kompani duke përfshirë Nvidia dhe Zynga, ndërsa së fundmi ka kryer rolin e CTO në French startup Lifen, e cila zhvillon infrastrukturën dixhitale për industrinë e kujdesit shëndetësor.
Të seed raundi u drejtua nga Alpha Intelligence Capital (AIC), Elaia Partners dhe Heartcore Capital, me pjesëmarrje nga Frst Capital, Motier Ventures, Partech dhe CEO i InstaDeep, Karim Beguir.
Rebusi llogaritës
Për të kuptuar se çfarë Tripathi dhe Kilani po përpiqen me FlexAI, fillimisht ia vlen të kuptojmë se çfarë kanë zhvilluesit dhe praktikuesit e AI në lidhje me aksesin në “llogaritje”; kjo i referohet fuqisë përpunuese, infrastrukturës dhe burimeve të nevojshme për të kryer detyra llogaritëse si përpunimi i të dhënave, ekzekutimi i algoritmeve dhe ekzekutimi i modeleve të mësimit të makinerive.
“Përdorimi i çdo infrastrukture në hapësirën e AI është kompleks; nuk është për njerëzit me zemër të dobët dhe nuk është për ata që nuk kanë përvojë,” tha Tripathi për TechCrunch. “Kjo kërkon që ju të dini shumë se si të ndërtoni infrastrukturën përpara se ta përdorni atë.”
Në të kundërt, ekosistemi publik cloud që ka evoluar këto dy dekadat e fundit shërben si një shembull i shkëlqyer se si një industri është shfaqur nga nevoja e zhvilluesve për të ndërtuar aplikacione pa u shqetësuar shumë për fundin e fundit.
“Nëse jeni një zhvillues i vogël dhe dëshironi të shkruani një aplikacion, nuk keni nevojë të dini se ku po ekzekutohet, ose cili është fundi i fundit – ju vetëm duhet të rrotulloni një shembull EC2 (Amazon Elastic Compute) dhe ju “Ka përfunduar,” tha Tripathi. “Ju nuk mund ta bëni këtë me llogaritjen AI sot.”
Në sferën e inteligjencës artificiale, zhvilluesit duhet të kuptojnë se sa GPU (njësi të përpunimit grafik) u nevojiten për të ndërlidhur mbi çfarë lloj rrjeti, të menaxhuar përmes një ekosistemi softuerësh për të cilin ata janë plotësisht përgjegjës për vendosjen. Nëse një GPU ose rrjet dështon, ose nëse ndonjë gjë në atë zinxhir shkon keq, përgjegjësia i takon zhvilluesit për ta renditur atë.
“Ne duam ta sjellim infrastrukturën kompjuterike të AI në të njëjtin nivel thjeshtësie që ka arritur cloud-i për qëllime të përgjithshme – pas 20 vitesh, po, por nuk ka asnjë arsye pse llogaritja e AI nuk mund të shohë të njëjtat përfitime,” tha Tripathi. “Ne duam të arrijmë në një pikë ku ekzekutimi i ngarkesave të punës së AI nuk kërkon që ju të bëheni ekspertë të qendrës së të dhënave.”
Me përsëritjen aktuale të produktit të tij që kalon hapat e tij me një pjesë të vogël të klientëve beta, FlexAI do të lançojë produktin e tij të parë tregtar më vonë këtë vit. Është në thelb një shërbim cloud që lidh zhvilluesit me “llogaritjen heterogjene virtuale”, që do të thotë se ata mund të ekzekutojnë ngarkesat e tyre të punës dhe të vendosin modele të AI nëpër arkitektura të shumta, duke paguar mbi bazën e përdorimit dhe jo duke marrë me qira GPU-të me bazë dollarë në orë.
GPU-të janë ingranazhe jetike në zhvillimin e AI, që shërbejnë për të trajnuar dhe drejtuar modele të mëdha gjuhësore (LLM), për shembull. Nvidia është një nga lojtarët më të shquar në hapësirën GPU dhe një nga përfituesit kryesorë të revolucionit të AI të shkaktuar nga OpenAI dhe ChatGPT. Në 12 muajt që kur OpenAI lançoi një API për ChatGPT në mars 2023, duke lejuar zhvilluesit të fusin funksionalitetin ChatGPT në aplikacionet e tyre, aksionet e Nvidia u rritën nga rreth 500 miliardë dollarë në më shumë se 2 trilion dollarë.
LLM-të tani po dalin nga industria e teknologjisë, me kërkesën për GPU që rritet së bashku. Por GPU-të janë të shtrenjta për t’u përdorur dhe marrja me qira e tyre për punë më të vogla ose raste të përdorimit ad-hoc nuk ka gjithmonë kuptim dhe mund të jetë tepër e shtrenjtë; kjo është arsyeja pse AWS është marrë me qira me kohë të kufizuar për projekte më të vogla të AI. Por marrja me qira është ende me qira, kjo është arsyeja pse FlexAI dëshiron të abstragojë kompleksitetin themelor dhe t’i lejojë klientët të kenë qasje në AI në llogaritjen sipas nevojës.
“Multicloud për AI”
Pika fillestare e FlexAI është se shumica e zhvilluesve nuk e bëjnë këtë vërtetë kujdes në pjesën më të madhe të kujt GPU ose çipa përdorin, pavarësisht nëse janë Nvidia, AMD, Intel, Graphcore ose Cerebras. Shqetësimi i tyre kryesor është të jenë në gjendje të zhvillojnë AI dhe të ndërtojnë aplikacione brenda kufizimeve të tyre buxhetore.
Këtu hyn koncepti i FlexAI për “llogaritjen universale të AI”, ku FlexAI merr kërkesat e përdoruesit dhe e shpërndan atë në çfarëdo arkitekture që ka kuptim për atë punë të veçantë, duke u kujdesur për të gjitha konvertimet e nevojshme nëpër platforma të ndryshme, pavarësisht nëse është Gaudi i Intel. infrastruktura, Rocm e AMD ose CUDA e Nvidia.
“Kjo do të thotë se zhvilluesi është i fokusuar vetëm në ndërtimin, trajnimin dhe përdorimin e modeleve,” tha Tripathi. “Ne kujdesemi për gjithçka poshtë. Dështimet, rikuperimi, besueshmëria, të gjitha menaxhohen nga ne dhe ju paguani për atë që përdorni.”
Në shumë mënyra, FlexAI po synon të gjurmojë shpejt për AI atë që tashmë ka ndodhur në cloud, që do të thotë më shumë sesa riprodhimi i modelit të pagesës për përdorim: Do të thotë aftësia për të kaluar “shumë re” duke u mbështetur në të ndryshmet. përfitimet e infrastrukturave të ndryshme GPU dhe çip.
FlexAI do të kanalizojë ngarkesën specifike të punës së klientit në varësi të prioriteteve të tyre. Nëse një kompani ka buxhet të kufizuar për trajnimin dhe rregullimin e modeleve të tyre të AI, ajo mund ta vendosë atë brenda platformës FlexAI për të marrë sasinë maksimale të zhurmës llogaritëse për paratë e tyre. Kjo mund të nënkuptojë kalimin përmes Intel për llogaritje më të lira (por më të ngadalta), por nëse një zhvillues ka një ekzekutim të vogël që kërkon daljen më të shpejtë të mundshme, atëherë ai mund të kanalizohet përmes Nvidia.
Nën kapuçin, FlexAI është në thelb një “grumbullues i kërkesës”, duke marrë me qira vetë harduerin përmes mjeteve tradicionale dhe, duke përdorur “lidhjet e forta” me njerëzit në Intel dhe AMD, siguron çmime preferenciale që i shpërndan në bazën e vet të klientëve. Kjo nuk do të thotë domosdoshmërisht të anashkalojnë Nvidia-n, por ndoshta do të thotë që në një masë të madhe – me Intel dhe AMD që luftojnë për mbetjet e GPU-ve të mbetura pas Nvidia-s – ka një nxitje të madhe për ta për të luajtur top me grumbullues të tillë si FlexAI.
“Nëse mund ta bëj të funksionojë për klientët dhe të sjell dhjetëra e qindra klientë në infrastrukturën e tyre, ata (Intel dhe AMD) do të jenë shumë të lumtur,” tha Tripathi.
Kjo është në kontrast me lojtarët e ngjashëm të cloud GPU në hapësirë, siç janë CoreWeave dhe Lambda Labs të mirëfinancuara, të cilat janë të përqendruara drejtpërdrejt në harduerin Nvidia.
“Unë dua ta çoj llogaritjen e AI deri në pikën ku është llogaritja aktuale e reve me qëllim të përgjithshëm,” vuri në dukje Tripathi. “Nuk mund të bësh multicloud në AI. Ju duhet të zgjidhni harduerin specifik, numrin e GPU-ve, infrastrukturën, lidhjen dhe më pas ta mirëmbani vetë. Sot, kjo është mënyra e vetme për të marrë në fakt llogaritjen e AI.”
Kur u pyet se cilët janë partnerët e saktë të nisjes, Tripathi tha se ai nuk ishte në gjendje t’i përmendte të gjithë ata për shkak të mungesës së “angazhimeve formale” nga disa prej tyre.
“Intel është një partner i fortë, ata padyshim po ofrojnë infrastrukturë dhe AMD është një partner që ofron infrastrukturë,” tha ai. “Por ka një shtresë të dytë partneriteti që po ndodh me Nvidia dhe disa kompani të tjera silikoni që ne nuk jemi ende gati t’i ndajmë, por ato janë të gjitha në përzierje dhe MOU (memorandume mirëkuptimi) po nënshkruhen tani. ”
Efekti Elon
Tripathi është më se i pajisur për t’u përballur me sfidat përpara, pasi ka punuar në disa nga kompanitë më të mëdha të teknologjisë në botë.
“Unë di mjaftueshëm për GPU-të; Dikur ndërtoja GPU,” tha Tripathi për qëndrimin e tij shtatëvjeçar në Nvidia, që përfundoi në vitin 2007 kur ai u nis për Apple teksa po lansonte iPhone-in e parë. “Në Apple, u fokusova në zgjidhjen e problemeve reale të klientëve. Isha atje kur Apple filloi të ndërtonte SoC-të e tyre të parë (sistemin në çipa) për telefona.”
Tripathi gjithashtu kaloi dy vjet në Tesla nga 2016 deri në 2018 si drejtues i inxhinierisë harduerike, ku përfundoi duke punuar drejtpërdrejt nën Elon Musk për gjashtë muajt e tij të fundit pasi dy persona mbi të u larguan papritur nga kompania.
“Në Tesla, gjëja që mësova dhe po e marr përsipër startup është se nuk ka kufizime përveç shkencës dhe fizikës,” tha ai. “Mënyra se si bëhen gjërat sot nuk është ashtu siç duhet apo duhet bërë. Ju duhet të shkoni pas asaj që gjëja e duhur për të bërë është nga parimet e para, dhe për ta bërë këtë, hiqni çdo kuti të zezë.”
Tripathi ishte i përfshirë në tranzicionin e Tesla-s për të prodhuar çipat e saj, një lëvizje që që atëherë është imituar nga GM dhe Hyundai, mes prodhuesve të tjerë të automjeteve.
“Një nga gjërat e para që bëra në Tesla ishte të kuptoja se sa mikrokontrollues ka në një makinë, dhe për ta bërë këtë, ne fjalë për fjalë na duhej të renditnim nëpër një grumbull të atyre kutive të mëdha të zeza me mbulesë metalike dhe mbulesë rreth saj, gjeni këta mikrokontrollues vërtet të vegjël atje”, tha Tripathi. “Dhe ne përfunduam duke e vendosur atë në një tavolinë, e shtruam dhe thamë, ‘Elon, ka 50 mikrokontrollues në një makinë. Dhe ne paguajmë ndonjëherë 1000 herë marzhe për to, sepse ato janë të mbrojtura dhe të mbrojtura në një shtresë të madhe metalike.’ Dhe ai thotë, ‘le të shkojmë të bëjmë tonën’. Dhe ne e bëmë atë.”
GPU-të si kolateral
Duke parë më tej në të ardhmen, FlexAI ka aspirata për të ndërtuar infrastrukturën e vet, duke përfshirë qendrat e të dhënave. Kjo, tha Tripathi, do të financohet nga financimi i borxhit, duke u mbështetur në një tendencë të kohëve të fundit që ka parë që rivalët në hapësirë, duke përfshirë CoreWeave dhe Lambda Labs, të përdorin çipat Nvidia si kolateral për të siguruar kredi – në vend që të japin më shumë kapital.
“Bankierët tani dinë se si të përdorin GPU-të si kolaterale,” tha Tripathi. “Pse të japësh kapitalin e vet? Derisa të bëhemi një ofrues i vërtetë kompjuterik, vlera e kompanisë sonë nuk është e mjaftueshme për të na siguruar qindra milionë dollarët e nevojshëm për të investuar në ndërtimin e qendrave të të dhënave. Nëse kemi bërë vetëm kapital, ne zhdukemi kur paratë janë zhdukur. Por nëse realisht e bankojmë në GPU si kolateral, ata mund t’i heqin GPU-të dhe t’i vendosin në një qendër tjetër të dhënash.