Qëndroni të informuar me përditësime falas
Thjesht regjistrohuni në Inteligjence artificiale myFT Digest — dorëzuar direkt në kutinë tuaj hyrëse.
Rritja e parave që vërshojnë në inteligjencën artificiale ka rezultuar në disa reklama të ngjashme me kripto, që po errësojnë përparimin e pabesueshëm shkencor në këtë fushë, sipas Demis Hassabis, bashkëthemelues i DeepMind.
Shefi ekzekutiv i divizionit të kërkimit të AI të Google i tha Financial Times se miliarda dollarët po derdhen në AI gjeneruese start-ups dhe produktet “sjell me vete një grumbull të tërë të zhurmës dhe ndoshta disa ngacmuese dhe disa gjëra të tjera që shihni në zona të tjera të zhurmshme, kripto ose çfarëdo tjetër.
“Disa prej tyre tani janë përhapur në AI, gjë që mendoj se është paksa për të ardhur keq. Dhe mjegullon shkencën dhe kërkimin, gjë që është fenomenale,” shtoi ai. “Në një farë mënyre, AI nuk është mjaft i hipur, por në disa kuptime është shumë i hipnotizuar. Ne po flasim për të gjitha llojet e gjërave që thjesht nuk janë reale.”
Nisja e chatbot-it ChatGPT të OpenAI në nëntor 2022 shkaktoi një furi investitore pasi start-ups u përpoqën për të zhvilluar dhe vendosur AI gjeneruese dhe për të tërhequr venture financimi kapital.
Grupet VC investuan 42.5 miliardë dollarë në 2,500 AI start-up Kapitali raundet vitin e kaluar, sipas analistëve të tregut CB Insights.
Investitorët e tregut publik kanë nxituar gjithashtu në të ashtuquajturat kompanitë e teknologjisë Magnificent Seven, duke përfshirë Microsoft, Alphabet dhe Nvidia, që po drejtojnë revolucionin e AI. Rritja e tyre ka ndihmuar në shtytjen e tregjeve globale të aksioneve drejt performancës së tyre më të fortë të tremujorit të parë në pesë vjet.
Por rregullatorët tashmë po shqyrtojnë kompanitë për pretendime të rreme në lidhje me AI. “Një nuk duhet të lahet greenwash dhe dikush nuk duhet të lahet AI,” tha Gary Gensler, kryetar i Komisionit të Letrave me Vlerë dhe Shkëmbim në SHBA, në dhjetor.
Megjithë disa nga zhurmat mashtruese rreth AI, Hassabis, i cili javën e kaluar mori titullin kalorës për shërbimet në shkencë, tha se mbeti i bindur se teknologjia ishte një nga shpikjet më transformuese në historinë njerëzore.
“Unë mendoj se ne vetëm po gërvishtim sipërfaqen e asaj që unë besoj se do të jetë e mundur gjatë dekadës së ardhshme plus,” tha ai. “Ne jemi në fillim, ndoshta, të një epoke të re të artë të zbulimeve shkencore, një Rilindje të re.”
Prova më e mirë e konceptit se si AI mund të përshpejtojë kërkimin shkencor, tha ai, ishte modeli AlphaFold i DeepMind, i lëshuar në 2021.
AlphaFold kishte ndihmuar në parashikimin e strukturave të 200 milion proteinave dhe tani po përdorej nga më shumë se 1 milion biologë në mbarë botën. DeepMind po përdor gjithashtu AI për të eksploruar fusha të tjera të biologjisë dhe për të përshpejtuar kërkimet në zbulimin dhe shpërndarjen e drogës, shkencën e materialeve, matematikën, parashikimin e motit dhe teknologjinë e shkrirjes bërthamore. Hassabis tha se qëllimi i tij ka qenë gjithmonë të përdorte AI si “mjetin përfundimtar për shkencën”.
DeepMind u themelua në Londër në vitin 2010 me misionin për të arritur “inteligjencën e përgjithshme artificiale” që përputhet me të gjitha aftësitë njohëse njerëzore. Disa studiues kanë sugjeruar se AGI mund të jetë ende me dekada larg, nëse është e mundur fare.
Hassabis tha se një ose dy përparime të tjera kritike ishin të nevojshme përpara se të arrihej AGI. Por ai shtoi: “Nuk do të habitesha nëse do të ndodhte në dekadën e ardhshme. Nuk po them se do të ndodhë patjetër, por nuk do të habitesha. Mund të thuash për një shans 50 për qind. Dhe ky afat kohor nuk ka ndryshuar shumë që nga fillimi i DeepMind.”
Duke pasur parasysh fuqinë e mundshme të AGI, Hassabis tha se ishte më mirë ta ndiqje këtë mision përmes metodës shkencore sesa qasjes së hakerëve të favorizuar nga Silicon Valley. “Unë mendoj se ne duhet të marrim një qasje më shkencore për ndërtimin e AGI për shkak të rëndësisë së saj,” tha ai.
Themeluesi i DeepMind këshilloi qeverinë britanike për samitin e parë global të Sigurisë së AI të mbajtur në Bletchley Park vitin e kaluar. Hassabis përshëndeti vazhdimin e dialogut ndërkombëtar mbi këtë temë, me samitet e mëvonshme që do të mbahen nga Koreja e Jugut dhe Franca, dhe krijimin e instituteve të sigurisë së AI në Mbretërinë e Bashkuar dhe SHBA.
“Unë mendoj se këto janë hapat e parë të rëndësishëm,” tha ai. “Por ne kemi shumë më tepër për të bërë dhe duhet të nxitojmë sepse teknologjia po përmirësohet në mënyrë eksponenciale.”
Javën e kaluar, studiuesit e DeepMind publikuan një dokument që përshkruan një metodologji të re, të quajtur SAFE, për reduktimin e gabimeve faktike, të njohura si halucinacione, të krijuara nga modele të mëdha gjuhësore si GPT e OpenAI dhe Gemini e Google. Mosbesueshmëria e këtyre modeleve ka bërë që avokatët të bëjnë parashtresa me citate fiktive dhe të pengojnë shumë kompani nga përdorimi i tyre komercial.
Hassabis tha se DeepMind po eksploronte mënyra të ndryshme për të kontrolluar faktet dhe për të mbështetur modelet e saj duke kontrolluar përgjigjet kundër Google Search ose Google Scholar, për shembull.
Ai e krahasoi këtë qasje me mënyrën se si modeli i tij AlphaGo e kishte zotëruar lojën e lashtë të Go duke kontrolluar dy herë rezultatin e saj. Një model i madh gjuhësor mund të verifikojë gjithashtu nëse një përgjigje ka kuptim dhe të bëjë rregullime. “Është pak si AlphaGo kur është duke bërë një lëvizje. Ju nuk mund të pështyni vetëm lëvizjen e parë për të cilën mendon rrjeti. Ka pak kohë për të menduar dhe bën një planifikim”, tha ai.
Kur u sfidua me vërtetimin e 16,000 fakteve individuale, SAFE u pajtua me annotuesit njerëzorë me burime të shumta në 72 përqind të rasteve – por ishte 20 herë më i lirë.