Imazhet nga lufta midis Izraelit dhe Hamasit kanë ilustruar gjallërisht dhe me dhimbje potencialin e inteligjencës artificiale (AI) si një mjet propagande, i përdorur për të krijuar imazhe realiste të masakrës
Mes pamjeve të shtëpive të bombarduara dhe rrugëve të shkatërruara në Gaza, disa dalloheshin për tmerrin absolut që shfaqnin: foshnja të gjakosura dhe të braktisura.
Këto imazhe të para miliona herë në internet që nga fillimi i luftës janë falsifikime të thella (të manipuluara në mënyrë dixhitale ose të gjeneruara audio, imazhe ose video realiste) të krijuara me inteligjencë artificiale. Nëse shikoni nga afër, mund të shihni të dhëna: gishtat që përdridhen në mënyrë të çuditshme ose sytë që shkëlqejnë me një dritë të panatyrshme, të gjitha shenja treguese të mashtrimit dixhital. Megjithatë, indinjata që kërkuan të shkaktonin imazhet është krejtësisht e vërtetë.
Imazhet nga lufta midis Izraelit dhe Hamasit kanë ilustruar gjallërisht dhe me dhimbje potencialin e inteligjencës artificiale (AI) si një mjet propagande, i përdorur për të krijuar imazhe realiste të masakrës. Që nga fillimi i luftës muajin e kaluar, imazhet e ndryshuara në mënyrë dixhitale të përhapura në mediat sociale janë përdorur për të bërë pretendime të rreme në lidhje me përgjegjësinë për viktimat ose për të mashtruar njerëzit për mizoritë që nuk kanë ndodhur kurrë.
Ndërsa shumica e pretendimeve të rreme që qarkullonin në internet për luftën nuk kërkonin që AI të krijonte dhe të vinte nga burime më konvencionale, përparimet teknologjike po ndodhin me frekuencë në rritje dhe me pak mbikëqyrje. Kjo e ka bërë qartësisht të dukshme potencialin që AI të bëhet një formë tjetër arme dhe ka ofruar një paraqitje të shkurtër të asaj që do të ndodhë gjatë konflikteve të ardhshme, zgjedhjeve dhe ngjarjeve të tjera të mëdha.
“Kjo do të përkeqësohet shumë më keq përpara se të përmirësohet,” tha Jean-Claude Goldenstein, CEO i CREOpoint, një kompani teknologjike me qendër në San Francisko dhe Paris që përdor inteligjencën artificiale për të vlerësuar vlefshmërinë e pretendimeve në internet. Kompania ka krijuar një bazë të dhënash të falsifikimit më viral që janë shfaqur në Gaza. “Imazhet, video dhe audio: me AI gjeneruese do të jenë në një përshkallëzim që nuk e keni parë”, thotë Goldenstein.
Në disa raste, fotografitë e konflikteve ose fatkeqësive të ndryshme janë ripërdorur dhe janë transmetuar si të reja. Në të tjera, programe gjeneruese të AI janë përdorur për të krijuar imazhe nga e para, si ajo e një foshnje që qan në rrënojat e një bombardimi që u bë virale në ditët e para të konfliktit.
Shembuj të tjerë të imazheve të krijuara nga AI përfshijnë video që tregojnë sulme të supozuara me raketa izraelite, tanke që rrotullohen nëpër lagje të shkatërruara ose familje që kërkojnë të mbijetuar mes shkretëtirës.
Në shumë raste, imazhet e rreme duket se janë krijuar për të provokuar një reagim të fortë emocional duke përfshirë trupat e foshnjave, fëmijëve ose familjeve. Në ditët e para të përgjakshme të luftës, mbështetësit e Izraelit dhe Hamasit pretenduan se pala tjetër kishte viktimizuar fëmijë dhe foshnja.
“Propagandistët që krijojnë këto lloj imazhesh janë të aftë për të nxitur ankthet dhe impulset më të thella të njerëzve”, tha Imran Ahmed, CEO i Qendrës jofitimprurëse për Kundër urrejtjes Dixhitale, i cili ka gjurmuar dezinformimin e luftës. Pavarësisht nëse është një falsifikim i thellë i një foshnjeje ose një imazh i vërtetë i një foshnje nga një konflikt tjetër, ndikimi emocional tek shikuesi është i njëjtë.
Sa më i urryer të jetë imazhi, aq më shumë ka gjasa që një përdorues ta kujtojë dhe ta ndajë atë, duke përhapur pa dashje dezinformata edhe më tej.
“Tani për tani njerëzve u thuhet, shikoni këtë foto të një foshnjeje. Dezinformimi është krijuar për t’ju bërë të merrni pjesë në të,” tha Ahmed. Përmbajtja e ngjashme mashtruese e krijuar nga AI filloi të përhapet pasi Rusia pushtoi Ukrainën në vitin 2022. Një video e ndryshuar duket se tregonte presidentin ukrainas Volodymyr Zelenskyy duke urdhëruar ukrainasit të dorëzoheshin. Pretendime të tilla kanë vazhduar të qarkullojnë edhe javën e kaluar, duke demonstruar se sa i vazhdueshëm mund të jetë dezinformata dhe informacioni i rremë, edhe kur ato janë debutuar lehtësisht.
Çdo konflikt i ri apo sezon zgjedhor ofron mundësi të reja për promovuesit e dezinformatave për të demonstruar përparimet më të fundit në AI. Kjo ka bërë që shumë ekspertë të inteligjencës artificiale dhe shkencëtarë politikë të paralajmërojnë për rreziqe vitin e ardhshëm, kur disa vende do të mbajnë zgjedhje të mëdha, duke përfshirë Shtetet e Bashkuara, Indinë, Pakistanin, Ukrainën, Tajvanin, Indonezinë dhe Meksikën.
Rreziku që AI dhe media sociale mund të përdoren për të përhapur gënjeshtra tek votuesit amerikanë ka alarmuar ligjvënësit e të dy partive në Uashington. Në një seancë dëgjimore të kohëve të fundit mbi rreziqet e falsifikimeve të thella, përfaqësuesi i SHBA-së Gerry Connolly, tha se Shtetet e Bashkuara duhet të investojnë për të financuar zhvillimin e mjeteve të inteligjencës artificiale të krijuara për të kundërshtuar përmbajtjen e dëmshme.
“Ne, si komb, duhet ta marrim këtë të drejtë,” tha Connolly.
Në mbarë botën, disa startup të teknologjisë po punojnë në programe të reja që mund të zbulojnë falsifikime të thella, imazhe filigranë për të vërtetuar origjinën e tyre ose të ekzaminojnë tekstin për të verifikuar çdo pretendim mashtrues që mund të jetë futur nga AI.
“Vala tjetër e AI do të jetë: Si mund ta verifikoni përmbajtjen që ekziston? Si mund të zbuloni informacione të gabuara ose të rreme? Si mund ta analizoni tekstin për të përcaktuar nëse është i besueshëm?” tha Maria Amelie, bashkëthemeluese e Factiverse, një kompani norvegjeze që ka krijuar një program AI që mund të ekzaminojë përmbajtjen për pasaktësi ose paragjykime të prezantuara nga programe të tjera të AI.
Këto programe do të ishin me interes të menjëhershëm për edukatorët, gazetarët, analistët financiarë dhe të tjerë të interesuar në çrrënjosjen e gënjeshtrave, plagjiaturës ose mashtrimit. Programe të ngjashme janë duke u krijuar për të zbuluar fotografi ose video të manipuluara.
Ndërsa kjo teknologji është premtuese, ata që përdorin AI për të gënjyer janë shpesh një hap përpara, sipas David Doermann, një shkencëtar kompjuteri që drejtoi një përpjekje në Agjencinë e Projekteve të Kërkimeve të Avancuara të Mbrojtjes për t’iu përgjigjur kërcënimeve të sigurisë kombëtare të paraqitura nga imazhet e manipuluara nga AI. .
Doermann, i cili tani është profesor në Universitetin në Buffalo, tha se përgjigjja efektive ndaj sfidave politike dhe sociale të paraqitura nga dezinformatat e gjeneruara nga AI do të kërkojë teknologji më të mira dhe rregullore më të mira, standarde vullnetare të industrisë dhe investime të mëdha në programet e shkrim-leximit dixhital që ndihmon përdoruesit e internetit të gjejnë mënyra për të dalluar të vërtetën nga fantazia.
“Sa herë që lëshojmë një mjet që e zbulon këtë, kundërshtarët tanë mund të përdorin AI për të fshehur atë gjurmë të provave. Zbulimi dhe përpjekja për t’i eliminuar këto gjëra nuk është më zgjidhje. Ne duhet të kemi një zgjidhje shumë më të madhe.“, tha Doermann./ The Independent en espanol