Moderno državništvo možda već u ovom trenutku uključuje manipuliranje sustavima umjetne inteligencije kako bi se postigli različiti rezultati na temelju nečijeg identiteta ili političkog djelovanja.
Zamislite budućnost u kojoj sustavi umjetne inteligencije namjerno zavaravaju političke disidente i druge "neuravnotežene" pojedince ili kako novinarima daju iskrivljene činjenice ili gospodarskim subjektima, izvođačima radova ili pružateljima usluga, koji sudjeluju u postupcima javne nabave za državu daju kod pun grešaka. Naime, sustavi lažu korisnicima, ne zbog onoga što su tražili, već zbog toga tko su ti korisnici.
Internet je nekoć obećavao globalan, bezgraničan protok informacija, ali tijekom proteklih 20 godina model jedinstvene razmjene podataka izblijedio je, jer su usluge koje emitiraju iste informacije svima ustupile mjesto algoritamski personaliziranim streamovima. Umjetna inteligencija ima potencijal pojačati razvoj ovog fenomena, jer je stvorena sa značajkama za prilagodbu svojih odgovora nakon što izvuče signale identiteta iz jezika kojim se korisnik služi, IP adrese, postavljenih upita, unesenih podataka i drugih dostupnih podataka. Značajka tehnologije za precizno ciljanje sadržaja razvijat će se kako se sustavi umjetne inteligencije budu dublje integrirali u svaki aspekt života ljudi.
Već postoje dokazi kako politički motivirano ciljanje umjetnom inteligencijom više nije hipotetski problem. Naime, prošlog ljeta, inicijativa Wicked Problems Lab na Institutu za nacionalnu sigurnost Sveučilišta Vanderbilt, potvrdila je kako je kineska tvrtka pod nazivom GoLaxy vodila operacije utjecaja omogućene umjetnom inteligencijom u Tajvanu i Hong Kongu kako bi generirala sadržaj podešen prema političkim profilima određene publike.
Za potrebe studije koju je u studenom objavila tvrtka za kibernetičku sigurnost CrowdStrike, istraživači koji su se predstavili kao korisnici povezani sa skupinama koje je kineska vlada klasificirala kao politički osjetljive (poput Ujgura, Tibetanaca i Falun gonga) potaknuli su model umjetne inteligencije kineske tvrtke DeepSeek da generira kod. U CrowdStriku su otkrili kako sadržaj generiran za te skupine sadrži daleko više pogrešaka i ranjivosti od sadržaja generiranog iz identičnih zahtjeva drugih korisnika. Ukratko, kvaliteta odgovora modela može ovisiti o tome što model misli tko mu postavlja pitanja.
Benjamin Fanjoy/Bloomberg
Ovi primjeri ilustriraju kako bi umjetna inteligencija mogla postati nova vrsta oružja za nacionalne države koje djeluju u takozvanoj sivoj zoni, području međudržavnog natjecanja koje je na granici između mira i rata. Suptilnim oblikovanjem informacija koje utječu na način razmišljanja donositelja odluka, modeli umjetne inteligencije mogli bi utjecati na strateške ishode bez izazivanja otvorenog sukoba. Još zlokobnije, sustav umjetne inteligencije mogao bi potiho predstaviti sigurnosne propuste koda u sustave nacionalnih vlada ili druge kritične sustave dajući pogrešne odgovore, otvarajući tako put za korištenje u budućim operacijama.
U budućnosti u kojoj bi se na ovaj način manipuliralo informacijama, većina bi pojedinaca dobivala točne i izravne odgovore, zbog čega bi bilo teško primijetiti bilo kakve promjene, dok bi se samo politički osjetljivi ili strateški relevantni korisnici morali nositi s odbijanjima davanja odgovora na postavljena pitanja, obmanjujućim rezultatima ili suptilno degradiranim informacijama. U najgorem slučaju, centralizirani sustavi umjetne inteligencije automatski bi utjecali na način razmišljanja političkih disidenata kako bi ih se uskladilo s „dopuštenim“ idejama, a pritom ne ostavljajući nikakav trag uplitanja.
U tehničkom smislu, vrlo je jednostavno prilagoditi generirani sadržaj na temelju signala kao što su jezik, lokacija, vremenska zona, vrsta uređaja, podaci o računu i pretpostavljena stručnost. Osjetljiviji zaključci, uključujući politička, vjerska ili demografska obilježja, također se mogu uskladiti uz pomoć proxy poslužitelja. Već je poznato kako različiti modeli umjetne inteligencije mogu dati različite odgovore na slična pitanja, pa čak i dati različite odgovore različitim korisnicima unutar istog sustava. Iz perspektive tvrtki koje dizajniraju i prodaju ove sustave, personalizacija je često poželjna. Naime, odanost korisnika nekom modelu trebala bi biti veća što je model sposobniji dati više korisnih informacija. Za komercijalne sustave u slobodnim društvima, takve su prakse ograničene uvriježenim očekivanjima korisnika po pitanju pravednosti, transparentnosti, vanjskog nadzora i evaluacije treće strane. Sustavi vezani uz državu ili zatvoreni informacijski sustavi suočavaju se s manje prepreka.
Nije poznato je li ponašanje koje su uočili djelatnici tvrtke CrowdStrike odraz namjernih odluka donesenih u fazi razvoja model. Generirani sadržaji sustava umjetne inteligencije odražavaju podatke na kojima su obučeni i mogu pojačati društvene predrasude na načine o kojima njihovi tvorci nisu razmišljali ili kojih nisu ni svjesni. U konačnici, sustav umjetne inteligencije obučen na podacima prikupljenim od korisnika interneta u Kini mogao bi biti programiran za negativna mišljenja o Ujgurima, a da iza toga ne stoji ničija odluka. Međutim, čak i ako su propusti bili nenamjerni ili slučajni, oni bi pokazali kako mogućnost ciljane manipulacije postoje, odnosno kako zaštitni mehanizmi koji bi je spriječili ne postoje.
Kako god bilo, evidentna je potreba za provođenjem istraživanja na razini nacionalne sigurnosti kako bi se umanjila upotreba sustava umjetne inteligencije kao oružja za operacije utjecaja. Ključne uloge za povećanje transparentnosti sustava umjetne inteligencije imaju upravo vlade, privatni sektor i akademska zajednica. Primjerice, inicijativa Wicked Problems Lab Sveučilišta Vanderbilt ispituje ponašanja sustava umjetne inteligencije kada su izloženi stresu, sustavno procjenjujući njihove sposobnosti i slabosti, kao i varijacije odgovora na stres među modelima. Tradicionalni kriteriji daju korisne uvide, ali im nedostaje prilagodljivost potrebna za promjenjivo okruženje prijetnji. Kako bismo riješili taj nedostatak, naš projekt gradi fleksibilnu platformu za evaluaciju na koju se u kontinuitetu mogu dodavati novi testovi internih istraživača i šire zajednice, a koja koristi testiranje vođeno umjetnom inteligencijom za otkrivanje novih pogrešaka u sustavu.
Međutim, vlade ujedno imaju ključnu ulogu u osiguravanju sigurne uporabe umjetne inteligencije dok istovremeno potiču brzi razvoj tehnologije. Kako bi ispunili ovu odgovornost nadzora, kreatori politika moraju razvijati i stalno održavati stvarnu tehničku pismenost o sustavima umjetne inteligencije usporedno s razvojem tih sustava, uključujući i njihove prednosti i rizike koje predstavljaju za nacionalnu sigurnost. A takvo razumijevanje mora dovesti do odgovornosti. Dakle, identificirane propuste treba ispraviti, a ne samo zabilježiti. Na isti način, akteri nacionalne sigurnosti trebali bi razviti trajnu, resursima potpomognutu sposobnost praćenja novih vektora napada u sustavima umjetne inteligencije i koordinirati obrambenim djelovanjima sigurnosnih agencija u suradnji s partnerima.
Uzevši u obzir činjenicu kako države sada mogu podesiti pritisak i uvjeravanje na individualnoj razini, personaliziran utjecaj umjetne inteligencije označava duboku promjenu. U svemu tome, ključno je prepoznati trenutak u kojem iza državništva više ne stoji samo osoba već i UI model. U suprotnom, korisnici interneta diljem svijeta mogli bi se naći pod utjecajem mehanizama koje ne mogu osporiti, pa ni vidjeti.
Goldstein i Benson su profesori na Sveučilištu Vanderbilt, ujedno specijalisti za nacionalnu i međunarodnu sigurnost.