Kako se digitalizacija svijeta ubrzano širi, naši pametni telefoni preobražavaju se u sofisticirane uređaje i nezamjenjive alate koji imaju velik utjecaj na svakodnevni život. Oni više nisu samo uređaji za komunikaciju, postali su pametni, intuitivni asistenti, a najnovije generacije ciljaju postati još pametnije kroz integraciju tehnologije umjetne inteligencije (UI).
Međutim, evolucija pametnih uređaja upravljanih umjetnom inteligencijom donosi brojne nove rizike i prijetnje koje korisnici možda ne shvaćaju dovoljno ozbiljno.
"S jedne strane, prednosti su korisničko iskustvo, brzina dobivanja informacija i postizanje poslovnih ciljeva. Kao rizici mogu se izdvojiti pogrešna tumačenja podataka, halucinacije i lažni sadržaji", kaže Ervin Jagatić, direktor za proizvode umjetne inteligencije u Infobipu.
Da će novi uređaji opremljeni tehnologijom umjetne inteligencije olakšati širenje lažnih sadržaja, slaže se i Ljubiša Bojić, viši znanstveni suradnik i koordinator Laboratorija za digitalno društvo pri Institutu za filozofiju i društvenu teoriju u Srbiji.
"UI tehnologija omogućava lakše i brže generiranje sadržaja koji izgledaju autentično, što može dovesti do povećane količine prevarantskih informacija u online prostoru", naglašava.
Dostupnost umjetne inteligencije
Umjetna inteligencija postaje sve pristupačnija, pa sada, uz jedan klik na pametni telefon, možete napraviti vizualnu pretragu onoga što gledate ili lektorirati tekst ili čak u potpunosti odgovoriti na neku poruku ili e-mail. No nitko ne bi želio da osjetljivi podaci iz tih sadržaja budu otkriveni ili zloupotrijebljeni, bilo namjerno bilo slučajno.
"Postoji rizik da ti podaci budu korišteni za treniranje velikih jezičnih modela (LLM) bez suglasnosti korisnika, što može utjecati na privatnost i sigurnost", objašnjava Nino Karas, izvršni direktor i suosnivač tvrtke CodeWell AI.
Rizična prednost
Umjetna inteligencija, u svojim različitim oblicima, postaje dio funkcionalnosti suvremenih pametnih telefona. Od glasovnih asistenata, poput Siri i Google Assistanta, do naprednijih funkcija poput predviđanja teksta i personaliziranih preporuka, umjetna inteligencija poboljšava korisničko iskustvo čineći uređaje preciznijima i intuitivnijima.
Međutim, upravo ta sofisticiranost čini ih ranjivima na zloupotrebu. Jedna od glavnih briga su podaci koje ti pametni uređaji prikupljaju. Sustavi umjetne inteligencije zahtijevaju ogromne količine podataka kako bi učinkovito funkcionirali, a ti podaci često uključuju osjetljive osobne informacije. To stvara zlatnu priliku za kibernetičke kriminalce. Na primjer, ako sustav umjetne inteligencije može razumjeti vaše glasovne naredbe, on potencijalno može presresti i zloupotrijebiti osobne ili financijske informacije.
Za ilustraciju, zamislite scenarij u kojem svom virtualnom asistentu dajete glasovnu naredbu: "Provjeri moje bankovno stanje!" Virtualni asistent pristupa vašem bankovnom računu i izgovara saldo. Ako taj asistent nema odgovarajuću zaštitu, netko tko može presresti tu informaciju ili ima pristup sustavu mogao bi dobiti podatke o vašem bankovnom računu.
Jedan način zloupotrebe bio bi ako haker uspije pristupiti serveru na kojem se pohranjuju i obrađuju te naredbe, čime bi mogao dobiti osjetljive informacije poput bankovnih računa, lozinki ili podataka o kreditnim karticama. U najgorem slučaju, takav napadač mogao bi iskoristiti informacije za neovlaštene transakcije ili druge vrste financijskih prijevara.
Na temelju tog primjera može se zaključiti da integracija umjetne inteligencije s različitim aplikacijama i uslugama znači da jedno sigurnosno narušavanje može ugroziti cijeli ekosustav podataka.
Veliki jezični modeli sve se više koriste zbog svoje sposobnosti da informiraju i izvršavaju zadatke s visokom preciznošću, što već omogućuje da se dio svakodnevnih aktivnosti gotovo u potpunosti prenese na umjetnu inteligenciju. No ako informacije koje generiraju nisu provjerene, to može dovesti do ozbiljnih posljedica za društvo.
"Dezinformacija nije uvijek namjerna, čest problem kod velikih jezičnih modela je pojava tzv. halucinacija, kada dostavljena informacija zvuči uvjerljivo, ali je potpuno pogrešna. To je i jedan od razloga zašto još uvijek nema široke primjene tih modela u industrijama gdje dezinformacije mogu izazvati velike financijske štete i imati pravne reperkusije", kaže Karas.
U tom kontekstu, naš sugovornik ističe još jedan primjer, s chatbotom temeljenim na ChatGPT-ju, izrađenom za potrebe avioprijevoznika Air Canada u veljači ove godine.
"Njihov chatbot nenamjerno je izmislio novu politiku refundiranja za korisnike, što je dovelo do pravne odluke prema kojoj je kompanija morala refundirati svim korisnicima koji su dobili tu informaciju. Iako je politika bila potpuno nepovoljna za Air Canadu, sud je presudio da je obvezujuća jer je informacija dolazila iz službenog izvora kompanije."
Ranjivost na eksploataciju
Pametni telefoni sve više postaju meta hakera koji žele iskoristiti slabosti relativno nove tehnologije. Ozloglašeni primjer je potencijal za maliciozni softver s umjetnom inteligencijom, koji se može prilagoditi i razvijati kako bi izbjegao otkrivanje putem konvencionalnih sigurnosnih mjera. Za razliku od tradicionalnog malicioznog softvera, prijetnje upravljane umjetnom inteligencijom mogu učiti iz svog okruženja i mijenjati svoje ponašanje kako bi zaobišle sigurnosne protokole.
Nadalje, algoritmi umjetne inteligencije koji se koriste u pametnim telefonima mogu se manipulirati kako bi služili zlonamjernim ciljevima.
Slično tome, sustavi umjetne inteligencije koji uče iz ponašanja korisnika mogu biti prevareni da donesu netočne odluke ili poduzmu radnje na temelju lažnih unosa podataka.
Opasnost od deepfake sadržaja i lažnog predstavljanja
S napretkom u području umjetne inteligencije, stvaranje lažnih sadržaja, poznatih kao deepfake (duboki falsifikat), postalo je stvarna i opasna prijetnja. Ta tehnologija omogućuje stvaranje uvjerljivih video ili audiosnimaka koje izgledaju kao da su ih napravili stvarni ljudi, ali zapravo su potpuno izmišljeni ili generirani. Ti videi mogu se koristiti za dezinformacije, prijevare, pa čak i za klevetu.
Nedžad Pirić, stručnjak za digitalizaciju, za Bloomberg Adriju upozorava na ozbiljne opasnosti koje donosi širenje deepfake sadržaja, osobito u vezi s dezinformacijama, manipulacijom percepcije javnosti i narušavanjem povjerenja u digitalne medije.
Kada je riječ o utjecaju na politiku, takvi sadržaji predstavljaju značajnu prijetnju i za političku stabilnost.
Naime, mogu izazvati manipulaciju javnim mišljenjem, diskreditaciju političkih kandidata, sabotiranje međunarodnih odnosa i pregovora te izazivanje političkih nemira.
"Lažno prikazani govori ili aktivnosti političara mogu destabilizirati države, izazvati nepovjerenje kod birača i polarizirati društvo, dok autoritarni režimi mogu koristiti tu tehnologiju za propagandu i represiju prema oporbi", kaže Pirić.
"S druge strane, deepfake sadržaji predstavljaju ozbiljnu prijetnju i za financijske sustave. Ta tehnologija može izazvati paniku na tržištu, manipulirati dionicima i investitorima te dovesti do naglih padova ili rasta vrijednosti dionica", objašnjava Pirić.
Deepfake sadržaj također može ozbiljno ugroziti ugled i povjerenje javnosti u medije. Na tu izloženost najranjiviji su vjerojatno društveni mediji jer se danas koriste kao kanal za brzu i masovnu distribuciju sadržaja.
Bojić ističe da sprječavanje širenja deepfake sadržaja na mrežama zahtijeva kombinaciju tehnoloških rješenja, poput algoritama za detekciju deepfakea, te edukaciju korisnika za prepoznavanje lažnih sadržaja.
Iako lažni videi generirani umjetnom inteligencijom postaju uvjerljiviji iz dana u dan, stručnjaci se slažu da još uvijek postoje neki znakovi, odnosno pokazatelji prema kojima se može uočiti da je određeni sadržaj deepfake.
"Često, u deepfake videima, izrazi lica ili pokreti očiju mogu izgledati neprirodno ili neskladno s glasom. Također, postoji indikacija lažnog sadržaja ako se može primijetiti i najmanja razlika između pokreta usana i glasa. Još jedan pokazatelj je nedostatak treptanja očiju, neprirodno ili prečesto treptanje. Od drugih pokazatelja za deepfake, vrlo često je slučaj neadekvatno osvjetljenje, pri čemu se mogu uočiti promjene u sjeni ili osvjetljenju lica koje ne odgovaraju prirodnim uvjetima, kao i glatka ili plastična tekstura ljudske kože koja izgleda neprirodno u usporedbi s realnim izgledom kože", objašnjava Pirić.
Privatnost i etičke brige
Upotreba umjetne inteligencije u pametnim telefonima izaziva značajnu zabrinutost za privatnost. Sustavi umjetne inteligencije često zahtijevaju stalni pristup osobnim podacima kako bi usavršavali svoje algoritme.
"Obrada i korištenje informacija korisnika još uvijek je veliki problem, koji unatoč pokušajima rješavanja i zakonskog reguliranja poput GDPR-a Europske unije i dalje predstavlja velik problem, a svakodnevno svjedočimo mnogim propustima, čak i od visoko etabliranih tvrtki. Umjetna inteligencija dodaje složenost postojećoj situaciji koja je, nažalost, još uvijek siva zona kroz koju se tvrtke oslobađaju korištenjem pravnih mehanizama i predugih, za običnog korisnika nejasnih politika o privatnosti i korištenju", naglašava Karaš.
Dodatno, tu su i etičke dileme. Sposobnost umjetne inteligencije da predviđa i utječe na ponašanje korisnika može dovesti do manipulacija, bez obzira na to je li riječ o komercijalnoj dobiti ili zlonamjernim ciljevima. Isti algoritmi koji preporučuju proizvode i usluge mogu se iskoristiti za širenje štetnog sadržaja ili dezinformacija.
Na primjer, u političkom kontekstu, umjetna inteligencija može se koristiti za predviđanje koji su korisnici podložni određenim porukama, kako bi im se prikazali ciljani politički oglasi ili dezinformacije. Algoritmi bi mogli analizirati vaše emocije, stavove i uvjerenja te potom kreirati personalizirane poruke koje će utjecati na vaše mišljenje ili ponašanje. To se već događalo u prošlosti, kao što je bio slučaj s Cambridge Analyticom, gdje su podaci s društvenih mreža korišteni za manipulaciju glasačima.
Ublažavanje rizika
Kako bi se suočili s tim prijetnjama, proizvođači i programeri moraju dati prioritet snažnim sigurnosnim mjerama. To uključuje šifriranje podataka, strogu kontrolu pristupa s dvostrukom autentifikacijom, kontinuirano praćenje za detekciju prijetnji, redovita softverska ažuriranja, segmentaciju mreže te primjenu pravnih i etičkih standarda. Bojić sugerira da je pri zaštiti od lažnih sadržaja generiranih umjetnom inteligencijom važno paralelno razvijati alate za detekciju i verifikaciju takvih sadržaja, a mogu se koristiti i suvremene metode poput blockchain tehnologije.
"Korištenjem blockchaina, možemo stvoriti distribuirani, nepromjenjivi zapis podataka koji osigurava transparentnost i verifikaciju. Svaki sadržaj može biti hashiran i digitalno potpisan, a zatim zapisan na blockchain, omogućujući provjeru autentičnosti putem UI alata specijaliziranih za detekciju deepfakeova."
Kako kaže, pametni ugovori mogu automatizirati te procese, dok bi krajnji korisnici putem dodataka za pretraživače imali jednostavan pristup informacijama za verifikaciju sadržaja. Takav sustav znatno bi smanjio rizik od širenja lažnih informacija i ojačao povjerenje javnosti u digitalne medije.
Uz to, može biti nužna povećana regulatorna kontrola kako bi se osiguralo da se tehnologije umjetne inteligencije razvijaju i koriste na način koji poštuje privatnost i sigurnost korisnika. Transparentne prakse i suglasnost korisnika trebaju biti temeljni u primjeni tehnologija s umjetnom inteligencijom.
"Odgovornosti tvrtki i pojedinaca mogu snažno utjecati na zaštitu privatnosti i sigurnosti podataka. Korištenje generativne umjetne inteligencije na odgovoran način može omogućiti sigurnu primjenu za pojedinca", ističe Jagić iz Infobipa.
Smjer za budućnost
Kako umjetna inteligencija nastavlja napredovati, tako će napredovati i strategije onih koji žele iskoristiti njezine slabosti. Izazov za korisnike i programere je ostati korak ispred tih prijetnji, osiguravajući da koristi od umjetne inteligencije ne dolaze na račun sigurnosti i privatnosti.
"Neophodna su stroga testiranja i verifikacija prije masovne primjene algoritama, ali i transparentnost i nadzor u procesu treniranja. Uključivanje ljudskog nadzora također pomaže u izbjegavanju pogrešnih ili neetičkih odluka", ističe Karaš.
U svijetu u kojem su pametni uređaji u središtu našeg svakodnevnog života, razumijevanje skrivenih prijetnji umjetne inteligencije i suočavanje s njima nije samo mjera opreza, nego i nužnost.
U pripremi teksta sudjelovale su Marta Premužak (Hrvatska), Dragana Tomić (Srbija) i Nejra Džaferagić (BiH).