Kaloni kohë të madhe duke përdorur ChatGPT, apo “chatbot” të tjerë të inteligjencës artificiale dhe nuk do t’ju duhet shumë kohë që të kuptoni se ata nxjerrin gjëra të pavërteta.
Të përshkruara si halucinacione, informacione të pavërteta apo shpikje të gjërave, tani këto janë shndërruar në problem për çdo biznes, organizatë dhe nxënës të shkollës së mesme, që i përdorin sistemet gjeneruese të inteligjencës artificiale për të hartuar dokumente. Disa po përdorin sistemet e inteligjencës artificiale për detyra që potencialisht kanë pasoja të mëdha, duke filluar nga psikoterapia e deri te kërkimet për hartimin e dokumenteve ligjore.
“Nuk mendoj se sot mund të gjesh ndonjë model që nuk vuan nga ndonjë halucinacion”, tha Daniela Amodei, bashkëthemeluese dhe udhëheqëse e Anthropic, krijuese e “chatbot-it” Claude 2.
“[‘Chatbot-ët’] janë të dizajnuar për të parashikuar fjalën e radhës”, tha Amodei. “Prandaj, ka një shkallë në të cilin modeli e bën këtë në mënyrë të pasaktë”.
Anthropic, kompania themeluese e ChatGPT, OpenAI, dhe zhvilluesit e tjerë të mëdhenj të sistemeve të inteligjencës artificiale, që njihen edhe si modele të mëdha gjuhësore, kanë thënë se po punojnë që këto sisteme të jenë më të besueshme.
Sa kohë do të marrë kjo – dhe nëse ato do të jenë mjaftueshëm të mira që të konsiderohen të sigurta për këshilla mjekësore – mbetet të shihet.
“Kjo nuk mund të rregullohet”, tha Emily Bender, profesoreshë e linguistikës dhe udhëheqëse e Laboratorit të Linguistikës Kompjuterike në Universitetin e Uashingtonit. “Është një mospërputhje midis teknologjisë dhe rasteve në të cilat është përdorur teknologjia”.
Shumë mbështeten në besueshmërinë e teknologjisë gjeneruese të inteligjencës artificiale. Instituti Botëror McKinsey parashikon se kjo teknologji do t’i shtojë ekonomisë botërore një ekuivalent prej 2.6 trilionë deri në 4.4 trilionë dollarë. “Chatbot-ët” janë vetëm një pjesë e kësaj furie, që përfshin po ashtu edhe teknologjinë që mund të gjenerojë imazhe të reja, video, muzikë dhe kode kompjuterike. Pothuajse të gjitha këto mjete përfshijnë disa komponentë gjuhësorë.
Google, veçse ka nisur të prezantojë një produkt të inteligjencës artificiale që shkruan lajme tek organizatat mediale, dhe për këtë gjë saktësia është parësore. Associated Press, po ashtu, shqyrton mundësinë e përdorimit të teknologjisë si pjesë e partneritetit me OpenAI, që po paguan për të përdorur një pjesë të arkivit të teksteve të Associated Press për ta përmirësuar sistemin e tij të inteligjencës artificiale.
Në partneritet me institutet për menaxhimin e hoteleve në Indi, shkencëtari kompjuterik, Ganesh Bagler, për vite të tëra ka punuar për të marrë sisteme të inteligjencës artificiale, përfshirë edhe një pararendës të ChatGPT, me qëllim që të krijojë receta të reja për kuzhinën e Azisë Jugore. Një përbërës i vetëm “halucinant” mund të bëjnë ndryshimin mes një ushqimi të shijshëm dhe të pangrënshëm.
Kur shefi i OpenAI, Sam Altman, e vizitoi Indinë në qershor, Bagler, që është profesor në Institutin Indraprasthra për Teknologji të Informacionit në Dehli, ai ngriti disa pikëpyetje.
“Mendoj se halucinacionet në ChatGPT janë ende të pranueshme, por kur një recetë preket nga kjo, atëherë shndërrohet në një problem të madh”, tha Bagler, teksa i bëri pyetje Almatit në një ngjarje në Nju Delhi.
“Çfarë mendoni për këtë”, e pyeti Bagler.
Altman shprehu optimizëm se ky problem mund të rregullohej.
“Mendoj se do ta përmirësojmë shumë problemin e halucinacionit”, tha Altman. “Mendoj se do të na duhet një vit e gjysmë, dy vjet. Diçka e tillë. Por, më pas ne nuk do të flasim për këto probleme. Do të ketë një balancë midis kreativitetit dhe saktësisë perfekte dhe modeli duhet të mësohen kur ne duam njërin, apo tjetrin”.
Por, për disa ekspertë që studiojnë teknologjinë, sikurse gjuhëtari Bender nga Universiteti i Uashingtonit, këto përmirësime nuk do të jenë të mjaftueshme.
Bender e përshkroi modelin gjuhësor si një sistem për “modelimin e rreshtave të formave të fjalëve”, duke i ofruar disa dhëna të shkruara mbi të cilat është trajnuar modeli.
Kjo është mënyra se si programet për kontrollin e drejtshkrimit janë në gjendje të zbulojnë nëse një fjalë është shkruar në mënyrë të gabuar. Ky model, po ashtu, ndihmon në fuqizimin e shërbimeve për përkthim automatik dhe të transkriptimit, “duke bërë që rezultati të duket më shumë si një tekst tipik në një gjuhë të caktuar”, tha Bender. Shumë njerëz mbështeten në një version të kësaj teknologjie sa herë që përdorin opsionin “autocomplete” kur shkruajnë mesazhe apo emaile.
Por, “chatbot-ët” e fundit, sikurse ChatGPT, Claude 2 apo ai Bard i kompanisë Google, tentojnë që të shkojnë një hap më tutje, duke gjeneruar paragrafe të reja tekstuale. Megjithatë, Bender tha se këta “chatbot” vazhdimisht zgjedhin vetëm fjalë më të besueshme për t’ia bashkuar fjalisë.
Kur ata përdoren për të gjeneruar tekste, modelet gjuhësore “janë të dizajnuara që të shpikin gjëra. Kjo është e gjitha që bëjnë”, tha Bender. Kjo teknologji e inteligjencës artificiale është e mirë për imitimin e formave të shkrimit, të kontratave ligjore dhe skriptave të programeve televizive.
“Por, duke qenë se këto modele vetëm shpikin gjëra, kur teksti që krijojnë del të jetë diçka që ne e konsiderojmë si të saktë, kjo është rastësi”, tha Bender. “Edhe nëse programohen që të jenë më të saktë, ka ende mënyra se si ato mund të dështojnë dhe ka të ngjarë që dështimet të ndodhin në rastet kur është më e vështirë që një person që lexon tekstin t’i vërejë ato”.
Këto gabime nuk janë problem i madh për fushat e marketingut që kanë kërkuar shërbimet e Jasper AI për të shkruar ide, tha presidenti i kompanisë, Shane Orlick.
“Halucinacionet në të vërtetë janë një bonos shtesë”, tha Orlick. “Ne kemi konsumatorë që gjatë gjithë kohës na tregojnë se si kanë ardhur deri te idetë, se si Jasper i trajton temat nga kënde të ndryshme, mënyra që ata kurrë nuk do t’i mendonin vetë”.
Ky start-up me seli në Teksas bashkëpunon me kompanitë sikurse OpenAi, Anthropic, Google apo Facebook, për t’iu ofruar konsumatorëve një sërë modelesh gjuhësore të inteligjencës artificiale për nevojat e tyre. Për dikë që shqetësohet për saktësinë, ky start-up ofron modelin e Antrhopic, ndërkaq për dikë që shqetësohet për sigurinë e të dhënave të burimit të tyre, i ofrohet një model tjetër, tha Orlick.
Orlick tha se ai e dinë se halucinacionet mundet që të përmirësohen lehtë. Ai pret nga kompanitë sikurse Google, që sipas tij, “kanë standarde të larta për përmbajtje të saktë” për makinën e tij të kërkimit, që të punojë në gjetjen e zgjidhjes për këtë problem.
“Mendoj se ata mund ta rregullojnë këtë problem”, tha Orlick. “Ata duhet ta adresojnë këtë. Nuk e di nëse ndonjëherë do të jetë perfekte, por besojë se do të përmirësohet vazhdimisht”.
Optimistët e teknologjisë, sikurse bashkëthemeluesi i kompanisë Microsoft, Bill Gates, kanë parashikuar një të ardhme optimiste.
“Jam optimist se me kalimin e kohës modelet e inteligjencës artificiale mund të mësohen që të dallojnë të vërtetën nga gënjeshtra”, tha Gates në një postim në korrik lidhur me mendimet e tij lidhur me rreziqet në shoqëri që paraqet inteligjenca artificiale.
Ai përmendi një shkrim të vitit 2022 të OpenAi si shembull “se do të ketë punë të mirë në këtë drejtim”. Së fundi, hulumtuesit në Institutin Federal për Teknologji në Cyrih të Zvicrës, thanë se kanë zhvilluar një metodë për të detektuar disa, po jo të gjithë, përmbajtjen halucinante të ChatGPT dhe sipas tyre kjo metodë largon këtë përmbajtje në mënyrë automatike.
Por, edhe vetë Altman, që krijon produkte për përdorime të ndryshme, nuk pret që modelet të jenë të vërteta nëse ai kërkon nga to informacione.
“Ndoshta unë u besoj përgjigjeve që marr nga ChatGPT po aq sa i beson kushdo në Tokë”, tha Altman gjatë ngjarjes të zhvilluar në një universitet në Nju Delhi.
/AP – Përshtati REL/