Si po eksperimentojnë shërbimet sekrete me modelet më të reja të Inteligjencës Artificiale. Shtetet e Bashkuara kanë teknologjinë më të mirë. Por a do ta përvetësojë Kina më shpejt? Ditën e inaugurimit të Donald Trump si president, kompania kineze DeepSeek, publikoi një model të avancuar të Inteligjencës Artificiale bazuar në modelet e mëdha gjuhësore (LLM).
Ishte një sinjal alarmi, sipas vetë Trump. Mark Warner, nënkryetar i Komitetit të Inteligjencës në Senat, thotë se komuniteti amerikan i inteligjencës (IC), një grup prej 18 agjencish dhe organizatash, u “kap në befasi”.
Si përgjigje, ajo urdhëroi agjencitë e saj të inteligjencës, Pentagonin dhe Departamentin e Energjisë (që ndërton armët bërthamore), të eksperimentojnë më me guxim me modelet më të avancuara dhe të punojnë më ngushtë me laboratorët kryesorë të IA, kryesisht Anthropic, Google DeepMind dhe OpenAI.
Së fundmi, Pentagoni njoftoi dhënien e kontratave deri në 200 milionë dollarë secilës prej kompanive Anthropic, Google, OpenAI dhe xAI (kompania e Elon Musk, chatbot-i i së cilës së fundmi u vetidentifikua si Hitleri pas një përditësimi të dështuar), për të eksperimentuar me modelet që veprojnë si agjentë të pavarur “agentic”.
Këto modele mund të veprojnë në emër të përdoruesve të tyre, duke ndarë detyra komplekse në hapa dhe duke kontrolluar pajisje të tjera, si makina apo kompjuterë.
Laboratorët më të avancuar në botë (frontier labs) janë aktivë jo vetëm në fushën ushtarake, por edhe në atë të inteligjencës.
Përdorimi fillestar më i përhapur ka qenë për chatbot-ët e LLM-ve që përpunojnë të dhëna të klasifikuara.
Në janar, Microsoft deklaroi se 26 produkte të teknologjisë cloud computing ishin autorizuar për përdorim në agjencitë e inteligjencës.
Në qershor, Anthropic njoftoi se kishte hedhur në treg Claude Gov, një version të përshtatur të modelit të saj Claude, i cili “është tashmë i përdorur nga agjenci në nivelet më të larta të sigurisë kombëtare të SHBA”.
Modelet tani përdoren gjerësisht në çdo agjenci të inteligjencës amerikane, së bashku me ato të laboratorëve rivalë.
Firmat e IA-së zakonisht i përshtatin modelet për përdorim nga shërbimet sekrete. Për shembull, Claude (versioni publik i Anthropic) mund të refuzojë dokumente që tregojnë se përmbajnë informacion sekret si pjesë e masave të sigurisë.
Claude Gov është modifikuar që të shmangë këtë sjellje dhe të ketë “aftësi të përmirësuara” në gjuhët dhe dialektet që përdoruesit qeveritarë kanë nevojë.
Modelet zakonisht funksionojnë në serverë të sigurt të shkëputur nga interneti publik. Brenda vetë agjencive, po ndërtohen një brez i ri modelesh agentike.
I njëjti proces po zhvillohet në Europë. “Në fushën e IA gjeneruese, jemi përpjekur të jemi ndjekës shumë të shpejtë të modeleve kryesore”, thotë një zyrtar britanik. “Çdo pjesëtar i komunitetit të inteligjencës britanike (UKIC) ka akses në kapacitete të klasifikuara të LLM-ve”.
Mistral, një firmë franceze dhe e vetmja me peshë reale në IA në Europë, ka një partneritet me AMIAD, agjencia franceze për IA ushtarake.
Modeli i saj Saba është trajnuar me të dhëna nga Lindja e Mesme dhe Azia Jugore, gjë që e bën veçanërisht të aftë në arabisht dhe në gjuhë të tjera rajonale si tamilishtja.
Në janar, revista +972 raportoi se përdorimi i GPT-4 nga forcat e armatosura izraelite u rrit me 20-fish pas fillimit të luftës në Gaza.
Megjithatë, përparimi mbetet i ngadaltë, sipas Katrina Mulligan, ish-zyrtare në mbrojtje dhe inteligjencë, aktualisht drejtuesja e partneriteteve të OpenAI në këtë fushë.
“Adoptimi i IA në hapësirën e sigurisë kombëtare nuk është ende aty ku duhet, thotë ajo. Agjencia për Siguri Kombëtare (NSA), shërbimi i inteligjencës së sinjaleve në SHBA, ka vite që punon me forma më të hershme të IA, si njohja e zërit, dhe konsiderohet si një qendër ekselence, thotë një burim i brendshëm.
Por shumë agjenci ende përpiqen të zhvillojnë ndërfaqet e tyre (wrappers) rreth chatbot-ëve të laboratorëve, një proces që shpesh i lë pas modelet publike më të fundit.
“Ndryshimi i vërtetë nuk qëndron vetëm në përdorimin si chatbot”, – thotë Tarun Chhabra, i cili ka drejtuar politikën teknologjike për Këshillin e Sigurisë Kombëtare të Biden dhe tani udhëheq politikën e sigurisë kombëtare tek Anthropic.
“Ndryshimi qëndron në pyetjen: sapo të fillosh ta përdorësh, si do ta ristrukturosh mënyrën se si kryen misionin?”
Skeptikët besojnë se këto shpresa janë të ekzagjeruara. Richard Carter nga Instituti Alan Turing, instituti kombëtar britanik për IA, thotë se shërbimet e inteligjencës në SHBA dhe Britani duan që laboratorët të reduktojnë ndjeshëm “halucinacionet” në modelet ekzistuese.
Agjencitë britanike përdorin një teknikë të zakonshme ku një algoritëm kërkon informacion të besueshëm dhe e furnizon me të modelin e IA për të minimizuar gabimet, thotë një zyrtar britanik i paidentifikuar.
“Ajo që nevojitet në IC është qëndrueshmëria, besueshmëria, transparenca dhe shpjegimet”, – paralajmëron Carter.
Në vend të kësaj, laboratorët po fokusohen në modelet agentike më të avancuara. (një qasje e modelimit kompjuterik që përdoret për të simuluar sjelljen e sistemeve komplekse duke nisur nga veprimet e njësive individuale, të quajtura agjentë).
Mistral, për shembull, mendohet të ketë demonstruar për klientët potencialë një sistem ku çdo burim informacioni, si imazhet satelitore apo përgjimet e zërit, kombinohet me një agjent të veçantë IA, për të përshpejtuar marrjen e vendimeve.
Ose përfytyroni një agjent IA të ngarkuar me identifikimin, kërkimin dhe më pas kontaktimin e qindra shkencëtarëve bërthamorë iranianë për t’i nxitur që të dezertojnë.
“Nuk kemi menduar thellë se si mund të përdoren agjentët në një kontekst lufte”, – shton Chhabra.
Problemi me modelet agentike, paralajmëron Carter, është se ato gjenerojnë vetë komandat për detyrat e dhëna, çka i bën më të paparashikueshme dhe rrit rrezikun e përforcimit të gabimeve.
Modeli më i fundit agentik i OpenAI, ChatGPT agent, ka një normë gabimi rreth 8%, më e lartë se modeli i mëparshëm o3, sipas një vlerësimi të publikuar nga vetë kompania.
Disa laboratorë të IA-së i konsiderojnë këto shqetësime si burokraci të tepruar, por Carter thotë se është një konservatorizëm i shëndetshëm.
“Ajo që ke, veçanërisht në komunitetin e GCHQ-së, – thotë ai, duke iu referuar homologut britanik të NSA-së, – është një forcë punëtore inxhinierike jashtëzakonisht e talentuar, e cila në mënyrë të natyrshme është skeptike ndaj teknologjive të reja”.
Kjo lidhet me një debat më të gjerë për të ardhmen e IA-së. Carter është ndër ata që argumentojnë se arkitektura e modeleve të sotme të përgjithshme LLM nuk është e ndërtuar për të përfaqësuar shkakun dhe pasojën, që është thelbësor për një kuptim të qëndrueshëm të botës. Sipas tij, prioriteti i agjencive të inteligjencës duhet të jetë shtytja drejt modeleve të reja të arsyetimit.
Të tjerë paralajmërojnë se Kina mund të jetë duke ecur më shpejt.
“Ende ekziston një boshllëk i madh në të kuptuarit tonë se si dhe sa larg ka ecur Kina në përdorimin e DeepSeek për qëllime ushtarake dhe inteligjente”, – thotë Philip Reiner nga Instituti për Siguri dhe Teknologji, një think tank në Silicon Valley.
“Ka shumë mundësi që ata të mos kenë rregulla të ngjashme me tonat për modelet, dhe për pasojë mund të përfitojnë njohuri më të fuqishme dhe më shpejt”, – thotë ai.
Më 23 korrik, administrata Trump urdhëroi Pentagonin dhe agjencitë e inteligjencës që të vlerësojnë rregullisht se sa shpejt po adoptojnë IA në krahasim me rivalë si Kina, dhe “të ndërtojnë një qasje që përshtatet në mënyrë të vazhdueshme”.
Pothuajse të gjithë bien dakord për këtë. Senatori Warner thotë se agjencitë amerikane të inteligjencës kanë bërë një “punë të mjerueshme” në mbledhjen e të dhënave mbi progresin e Kinës.
“Përvetësimi i teknologjisë dhe infiltrimi në kompanitë teknologjike kineze mbetet ende i ulët”.
Shqetësimi më i madh, sipas Mulligan, nuk është se SHBA do të nxitojë të përdorë IA pa e kuptuar rrezikun. “Shqetësimi është se Departamenti i Mbrojtjes dhe komuniteti i inteligjencës vazhdojnë t’i bëjnë gjërat si gjithmonë.
Ajo që më mban zgjuar natën është mundësia reale që të fitojmë garën drejt AGI (inteligjencës së përgjithshme artificiale)… dhe të humbasim garën për përdorimin e saj”./MONITOR