Hany Farid nije se mogao otrgnuti osjećaju da zapravo ne razgovara s Barackom Obamom.
Negdje tijekom 2023. Obamin pomoćnik kontaktirao je Farida, profesora računalnih znanosti na Sveučilištu Kalifornije u Berkeleyu, specijaliziranog za analizu slika i digitalnu forenziku, kako bi ga pitao je li raspoloživ za razgovor s bivšim predsjednikom o tehnologiji lažnog sadržaja (engl. deepfake). Kako je videopoziv odmicao, iskustvo razgovora nasamo s Obamom počelo je djelovati pomalo neobično usprkos uobičajeno prepoznatljivom glasu i intonaciji. "Cijelo vrijeme sam mislio: 'Ovo je deepfake. Ovo nije Obama'", kaže Farid. "Htio sam mu reći: 'Stavite ruku ispred lica.'"
U to vrijeme, jedan od načina za prepoznavanje deepfakea bio je zatražiti sugovornika da maše rukom ispred svog lica. Slika na ekranu bi se ili iskrivila i odala prevaranta, a možda i ne bi. Međutim, Farid se nije mogao natjerati pogledati bivšeg predsjednika u oči i zamoliti ga da dokaže kako su njegove oči prave. "Dakle, deset minuta sam se pitao šali li se to netko sa mnom", kaže Farid.
Nitko se s njim nije šalio, kako se ispostavilo, no Faridova sumnja upravo je odraz razmjere paranoje uzrokovane pojavom umjetne inteligencije kod ljudi koji koriste online načine komuniciranja. Istovremeno, tehnologija se brzo razvija kako bi zaobišla najočitije ljudske mehanizme obrane. Trik mahanja rukom već je zastario, što je Farid dokazao u nedavnom videopozivu za Bloomberg Businessweek zamijenivši svoje lice licem glavnog izvršnog direktora OpenAI-a, Sama Altmana. Bilo je moguće uočiti tek poneko kašnjenje između njegova glasa i videoprikaza te jedva primjetnu bezizražajnost u pogledu, ali Farid se mogao počešati po obrazu i usmjeriti si svjetiljku prema glavi bez ikakvih posljedica na kvalitetu slike. "Općenito pravilo", kaže Farid, "kako možete vjerovati u vjerodostojnost videorazgovora je svršena priča."
Još od 1950., kada je Alan Turing predložio evaluaciju koju je nazvao "igra imitacije", ljudi se pripremaju za dan kada će strojevi biti dovoljno razvijeni da mogu uvjerljivo oponašati ljudsko ponašanje. U onome što je danas poznato kao Turingov test, ispitivač vodi pisani razgovor sa strojem i drugim čovjekom, a nakon toga procjenjuje čiji je koji razgovor. Ako se dogodi da stroj prevari ispitivača, može se pretpostaviti da je stroj dosegao sposobnost oponašanja čovjeka. Desetljećima kasnije, sastavni dio mrežnih stranica čini CAPTCHA sustav (akronim za engleski naziv Completely Automated Public Turing test to tell Computers and Humans Apart što znači Potpuno automatizirani javni Turingov test za razlikovanje računala i ljudi.) za redovitu provjeru je li korisnik stranica čovjek ili stroj, najčešće uz pomoć zadatka s iskrivljenim slovima i brojkama koje ljudi dovoljno lako čitaju, a računala ih teško mogu raspoznati. Kako su automatizirani alati postajali sofisticiraniji, jednako tako su se razvijale i ove digitalne stupice. Naime, s vremenom su postajale sve čudnije, zahtijevajući od ljudi da identificiraju fotografije psa koji se smiješi samo kako bi mogli kupiti obične koncertne ulaznice, a pritom neminovno promišljaju mogu li se psi uopće smiješiti.
Pojavom velikih jezičnih modela (engl. pokrata LLM) probijeni su ti obrambeni sustavi. Istraživanje je pokazalo kako agenti umjetne inteligencije uz pažljivo postavljanje upita mogu rješavati složene CAPTCHA kodove. U drugoj nedavnoj studiji sa 126 sudionika nekoliko LLM-ova bilo je podvrgnuto Turingovu testu te je otkriveno kako su sudionici za 73 posto odgovora GPT-4.5 OpenAI-a zaključili da su odgovori čovjeka.
U internetom posredovanom svijetu, povjerenje nestaje, čineći svaku interakciju visoko ranjivom na obmanu, bilo da je riječ o potencijalnom poslodavcu, budućem romantičnom partneru, pozivu vaše majke s odmora u inozemstvu ili bivšem američkom predsjedniku. Prevaranti koji koriste softvere za kloniranje glasova već su se lažno predstavljali kao američki državni tajnik Marco Rubio kako bi razgovarali s ministrima vanjskih poslova raznih zemalja. CNN je tijekom 2024. objavio kako je jedan zaposlenik multinacionalne tvrtke sa sjedištem u Hong Kongu poslao 25 milijuna dolara (21,32 milijun eura) prevarantu koji je koristio deepfake kako bi se lažno predstavio kao glavni financijski direktor tvrtke.
S obzirom na trenutačni nedostatak boljih rješenja, kako pojedinci, tako institucije u hodu smišljaju vlastite neformalne Turingove testove. Preskaču nove prepreke koje su često u suprotnosti s postojećim društvenim normama kako bi provjerili svoju osjetljivost i uvjetovali od drugih da učine isto. S obzirom na to da strojevi postaju sve bolji u oponašanju ljudi, ljudi su prisiljeni mijenjati način na koji se ponašaju. Tako mijenjaju način na koji pišu, način na koji zapošljavaju i način na koji komuniciraju sa strancima, sve kako bi izbjegli scenarij u kojem će biti pogrešno identificirani kao umjetna inteligencija ili u kojem će ih umjetna inteligencija zamijeniti.
Elizabeth Zaborowska je nekoć bila poznata u svom uredu kao "kraljica crtica", toliko da su njezini kolege na njezinu prvom marketinškom poslu u New Yorku ispred njezina radnog stola objesili taj natpis. Zaborowska je ovaj pravopisni znak vidjela kao elegantan način spajanja dviju ideja, a da pritom rečenice ostanu jasne. Kada je pokrenula vlastitu tvrtku za odnose s javnošću, Bhava Communications, njezin je tim usvojio stil pisanja svog šefa – crtice i ostalo. Ali ChatGPT također ima slabost prema crticama, čija se upotreba našla na kratkom popisu retoričkih znakova koji se sada smatraju pokazateljima proze generirane umjetnom inteligencijom. U vrijeme kada tvrtke otkazuju suradnju tvrtkama za odnose s javnošću uslijed pojave besplatnih alata umjetne inteligencije, Zaborowska si nije mogla dozvoliti da itko pomisli kako ona rad chatbota predstavlja kao svoj. Prošlog proljeća okupila je svoj tim na tjednom virtualnom sastanku i zabranila daljnju uporabu crtice. Ovdje treba napomenuti kako OpenAI trenutačno radi na tome da se njegov chatbot riješi opsesije uporabom crtice.
U odnosu na stvarno stanje poremećaja uzrokovanih primjenama umjetne inteligencije, to je bila najmanja žrtva, no za Zaborowsku je to bio nagovještaj nečeg mnogo većeg. Naime, kako bi njezin rad bio prepoznat kao rad čovjeka, morala je potisnuti svoje instinkte. "To mijenja ritam jezika", kaže, "a ja sam opsjednuta jezikom."
Za Sarah Suzuki Harvard, tekstopiskinju u agenciji za sadržaj Storyarb, u svijetu interneta potreban napor da se identificira pisanje umjetne inteligencije postao je "lov na vještice" zbog kojeg je bila primorana cenzurirati vlastiti rad. Nedavno je na LinkedInu govorila o svim uobičajenim tehnikama i strategijama pisanja koje se sada smatraju znakovi upozorenja na umjetnu inteligenciju. Iritantno je to što su ti znakovi upozorenja zapravo mahom osobine (navike) ljudi koje su računala prikupila tijekom obuke. "Mi smo ti koji su izgradili strojeve", kaže Suzuki Harvard. "Oni plagiraju nas."
Unatoč tome, ljudi su sad prisiljeni dokazivati sami sebe. Problem je možda najizraženiji na sveučilišnim kampusima, gdje profesori koriste Reddit kako bi međusobno razmjenjivali strategije za razotkrivanje svojih studenata u varanju putem ChatGPT-ja, dok studenti na TikToku izražavaju sav gnjev zbog kažnjavanja njihova znatnog truda uloženog u pisanje rada jer im je rad označen kao uradak umjetne inteligencije. Urednici Wikipedije u međuvremenu su se udružili kako bi uklonili unose generirane umjetnom inteligencijom, skenirajući stranicu u potrazi za očitim znakovima kao što su lažni citati, i onim manje očitim znakovima kao što su tekstovi s prekomjernim navođenjem riječ "zadire/proniče" (engl. delves).
Cilj nije eliminirati sav sadržaj generiran umjetnom inteligencijom na Wikipediji, kaže Ilyas Lebleu, osnivač uredničke grupe WikiProject AI Cleanup, već ukloniti hrpe nebitnog sadržaja. "Ako su informacije točne i navedeni stvarni citati, to je u redu", kaže Lebleu. "Najveća primjedba na sadržaj generiran umjetnom inteligencijom jest to što je nerevidiran."
Na tržištu rada generativna umjetna inteligencija brojnima je olakšala izradu podrobnih prijava za posao jednim klikom, što je dovelo do poplave motivacijskih pisama i životopisa koje ionako preopterećeni timovi za ljudske resurse moraju pregledavati. Kyle Arteaga, izvršni direktor tvrtke za komunikacijske strategije poslovnih subjekata Bulleit Group sa sjedištem u Seattleu, svjedoči kako je njegova tvrtka nedavno primila tisuće prijava za svako radno mjesto i često završi intervjuirajući osobe koje su koristile umjetnu inteligenciju za masovno slanje prijava unutar sektora da se uopće ne sjećaju da su se prijavili na konkretan oglas. Odgovor na ovu pojavu Arteagaova tima bio je postavljanje „žičanih“ detektora umjetne inteligencije unutar oglasa za posao kojima su od kandidata uvjetovali da u svoje motivacijsko pismo uključe referencu na nekakav element iz recentne kulture i da navedu kojem domu u školi čarobnjaštva Hogwarts pripadaju. Tako je u jednom nedavnom oglasu, kaže Arteaga, za koji su primili 900 prijava manje od tri posto kandidata slijedilo upute čime se dramatično smanjio broj kandidata. Uzgred rečeno, posao je konačno dobio jedan član doma Ravenclaw.
Da bi umanjili rizik od prijevara umjetne inteligencije, ljudi se okreću i cijelom nizu "analognih rješenja", kako ih Farid naziva. Altman iz OpenAI-a nedavno je predložio kao jednu od mogućnosti obrane od prevaranata s kloniranim glasovima koji se predstavljaju kao bliske osobe osmišljavanje tajne "šifrirane riječi" koje članovi obitelji mogu tražiti u kriznim situacijama. Krajem prošle godine, isti savjet je britanska banka Starling Bank dala svojim klijentima kroz marketinšku kampanju koju je pokrenula tvrdeći kako očekuju da će 82 posto klijenata koji su vidjeli poruku vjerojatno poslušati savjet.
Drugi za potvrdu razlikovanja čovjeka od AI-a, korisnike svojih mrežnih stranica upućuju na popularna trik pitanja. Pranava Adduri, suosnivač i glavni tehnološki direktor tvrtke za sigurnost Bedrock Data sa sjedištem u Menlo Parku u Kaliforniji, ispričao nam je kako je u nedavnom razgovoru s agentom za online korisničku podršku, agenta zamolio da definira Navier-Stokesovu jednadžbu, skup matematičkih jednadžbi koje opisuju gibanje viskoznih tekućina. Svaki "nabrijani" chatbot, obučen za svu mudrost ovog svijeta, rado bi dao odgovor, kaže Adduri. Međutim, agent je samo odgovorio: "Nemam pojma." "A ja sam promislio 'U redu, ti si čovjek'", kaže nam Adduri.
Sve veći broj tvrtki, uključujući Google, dio Alphabet grupacije, ponovno uvodi osobne intervjue, kojima chatbotovi, u pravilu, ne mogu prisustvovati. Prema izjavi glasnogovornika, Google je uveo ovu promjenu kako bi novi zaposlenici bili prilagođeni kulturi tvrtke, kao i "kako bi se utvrdilo posjeduju li kandidati osnovne vještine kodiranja potrebne za pozicije za koje se prijavljuju".
Razumljivo, Google i druge velike korporacije imaju i druge dobre razloge zašto se žele osobno upoznati s novim zaposlenicima. Naime iz Saveznog istražnog ureda (engl. pokrata FBI), saznajemo kako su se tajni sjevernokorejski IT radnici uspješno zaposlili u više od 100 američkih tvrtki predstavljajući se kao radnici za rad na daljinu. Ove prijevare, često puta temeljene na alatima umjetne inteligencije, usmjerile su stotine milijuna dolara godišnje u Sjevernu Koreju, štoviše bile su i zamka za američke suučesnike.
"Nije tajna kako postoje lažni kandidati", kaže Kelly Jones, glavna direktorica za ljudske resurse tvrtke Cisco Systems, i navodi kako je tvrtka u svoj proces prijave za posao dodala biometrijsku provjeru.
Rastuća potražnja za vjerodajnicama kako s druge strane stoji čovjek, a ne AI sasvim razumljivo je dovela do nastanka ekonomije tehnoloških rješenja. S jedne strane tu su alati za otkrivanje deepfakeova koji se priključuju na postojeće platforme, poput Zooma, i navodno detektiraju sintetički audio i video u stvarnom vremenu. JPMorgan Chase & Co. koristi jedan takav alat, nazvan Reality Defender, na svojoj komunikacijskoj mreži. Farid je suosnivač tvrtke GetReal Security koja također u ponudi ima alate za otkrivanje deepfakeova u stvarnom vremenu, kao i druge usluge digitalne forenzike.
S druge strane, postoje alati koji putem kriptografskih ili biometrijskih metoda jamče uspješnu provjeru jesu li ljudi zapravo ljudi. Najistaknutiji je Orb, uređaj za skeniranje očnih jabučica koji je razvila tvrtka Tools for Humanity, a suosnivač joj je Altman. Orb koristi skeniranje šarenica ljudi kako bi stvorio identifikacijski kod kojeg tvorci uspoređuju s digitalnom putovnicom. Zatim se kod, nazvan World ID, može potvrditi uz pomoć World aplikacije kad god korisnik zatreba potvrdu svog identiteta. Iako programeri tvrde kako sustav ne pohranjuje nikakve osobne podatke o korisnicima, ideja je izazvala popriličan distopijski strah. Neke zemlje, uključujući Brazil, otišle su toliko daleko da su ga zabranile.
Orb i druge ideje za dokazivanje osobnosti oslanjale bi se na jedan entitet za izdavanje vjerodajnica, bilo da se radi o privatnoj tvrtki, državnom tijelu ili nevladinoj organizaciji, čime se ogromna moć stavlja u ruke izdavatelja. Isto tako, vjerodajnice su dugoročno rješenje koje zahtijeva sveobuhvatnu podršku kako društvenu tako i institucionalnu, a kada govorimo o internetskoj krizi povjerenja, Farid kaže: "Trenutačno imamo problem."
Uzevši u obzir raspon posljedica primjene AI-a, od prestanka uporabe crtice u pisanju pa sve do Orba, svako od spomenutih pretpostavljenih rješenja uključuje kompromise – od ljudi se traži da se odreknu djelića sebe ili da se sam čin bivanja čovjekom pretvori u svojevrsnu predstavu.
Došli smo do točke u evoluciji umjetne inteligencije kada smo probabilističke strojeve istrenirali da budu isuviše dobri u predviđanju onoga što bi čovjek učinio, u bilo kojoj zadanoj okolnosti, a kako bismo na koncu zaglavili u pokušajima razumijevanja kako razlikovati čovjeka od stroja.