Odluka Donalda Trumpa da 27. februara 2026. naredi svim saveznim agencijama da odmah obustave korištenje tehnologije kompanije Anthropic djelovala je kao još jedna politička poruka Washingtona. Ali nekoliko sati kasnije, kada je OpenAI objavio da ga preuzima, u ugovoru s Pentagonom vrijednim do 200 miliona dolara, postalo je jasno da je u pitanju redefiniranje odnosa između privatnih AI kompanija i nacionalne sigurnosti.
Međutim, samo nekoliko dana kasnije, veliki dio Silicijske doline također je stao u odbranu Amodeija. Tehnološke organizacije koje predstavljaju velike kompanije, uključujući Alphabet Inc. Google, Amazon i Apple, pozivaju predsjednika Donalda Trumpa da preispita odluku o označavanju kompanije Anthropic kao rizika po nacionalnu sigurnost, upozoravajući da bi takva odluka mogla izazvati štetne domino-efekte za čitavu tehnološku industriju.
Nakon ovoga, Anthropic se vraća u igru i nastavljaju se pregovori s Pentagonom. Ali šta se ovdje ustvari dešava?
Princip koji košta 200 miliona dolara
Anthropic je prošlog ljeta potpisao ugovor s Pentagonom vrijedan do 200 miliona dolara i bio jedini model vještačke inteligencije operativan u povjerljivim vojnim mrežama. Claude je analizirao obavještajne podatke, prevodio, sažimao izvještaje i ubrzavao administrativne procese - bez donošenja odluka o upotrebi sile.
Ugovor je imao dvije jasne granice: zabranu masovnog nadzora sopstvenih građana i zabranu autonomnih oružanih sistema bez čovjeka u komandnom lancu. Pentagon je tvrdio da te granice nikada nije prekršio, ali je insistirao da u novom ugovoru one formalno ne postoje.
Razlog: vojska, kako su naveli, ne može u realnom vremenu pregovarati s privatnom kompanijom o tumačenju njenog kodeksa ponašanja. Dario Amodei, izvršni direktor Anthropica, odgovorio je da kompanija "u dobroj savjesti ne može pristati" na takav zahtjev.
Nakon ove izjave, ministar odbrane Pete Hegseth je Anthropic označio kao "rizik u lancu snabdijevanja za nacionalnu sigurnost", formulaciju koja se uobičajeno koristi za strane protivnike. Ubrzo je stigla predsjednička naredba o prekidu saradnje.
Paradoks je uslijedio istog dana: Sam Altman je zaposlenima poručio da OpenAI dijeli ista ograničenja - zabranu masovnog nadzora i autonomnih smrtonosnih sistema. Do večeri je, međutim, OpenAI potpisao ugovor s Pentagonom uz gotovo identičan tekst koji je prethodno bio sporan.
Ključno pitanje ostaje jesu li ograničenja zaista identična
U internim dokumentima, Anthropic je definirao zabranu autonomnog oružja kao sisteme koji mogu identifikovati, odabrati i napasti metu bez ljudske intervencije u realnom vremenu. OpenAI je, prema dostupnim smjernicama, koristio sličnu formulaciju, ali s dodatnim prostorom za tumačenje u situacijama u kojima čovjek ostaje "u nadzornoj ulozi".
Ta razlika između potpune zabrane i modela s nadzornim mehanizmom može biti presudna. U vojnoj praksi, pitanje nije postoji li čovjek u lancu odlučivanja, već u kojem trenutku i s kojim stepenom kontrole.
Pentagon nije objasnio razliku.
Također formulacija "rizik u lancu snabdijevanja" ima mnogo šire posljedice od jednog ugovora. U američkom regulatornom okviru, taj termin ne pogađa samo primarnog dobavljača, već i sve kompanije koje njegovu tehnologiju integrišu u sopstvena rješenja za državu.
Ako sistem integrator koristi Claude u analitičkom softveru za federalne agencije, postavlja se pitanje postaje li i taj integrator sigurnosno problematičan.
U praksi, oznaka rizika može zahtijevati reviziju čitavog tehnološkog lanca - od glavnog ugovarača do regionalnih podizvođača. To uključuje velike američke firme kao što je Palantir Technologies, ali i manje evropske i regionalne integratore koji rade na američkim tenderima.
U takvom okviru, tehnološki izbor više nije samo inženjerska odluka, već dio sigurnosne procjene.
Anthropic je pokrenuo pravne korake, tvrdeći da oznaka može važiti samo za direktne vojne ugovore, a ne i za komercijalnu upotrebu. Ali pravna neizvjesnost je već proizvela tržišnu posljedicu: reputacijski rizik.
Međutim, nekoliko dana kasnije, ova vijest se proširila industrijom i velike firme su se udružile protiv predsjednika i stale uz Anthropic. Nije jasno šta se tačno dešavalo između "zatvorenih vrata", ali su pregovori između Pentagona i Anthropica opet otvoreni, a ugovor s OpenAI-jem je stavljen na pauzu.
AI softveri dobijaju geopolitički pečat, a za firme iz Adria regije koje posluju sa Zapadom ovo je signal uzbune
Decenijama su kompanije birale softverske dobavljače po cijeni, performansama i podršci. Geopolitika je bila rezervirana za energetiku i telekomunikacije. Ova odluka pokazuje da je vještačka inteligencija ušla u istu kategoriju.
To otvara šire pitanje: jesu li pravila u AI industriji stvar tehničkih standarda ili političke lojalnosti? Ako jedna administracija može jednostrano promijeniti poziciju dobavljača od "strateškog partnera" do "sigurnosnog rizika", i time utjecati na potencijalno uništavanje privatne kompanije, onda svaki biznis koji koristi AI mora razmišljati dugoročnije.
Jer pitanje više nije samo koji model koristimo, već šta se dešava ako taj model preko noći postane politički problem.
Za kompanije u centralnoj i istočnoj Evropi koje razvijaju AI rješenja za zapadna tržišta, to je signal upozorenja.
Regija posljednjih godina gradi reputaciju kroz projekte u oblasti odbrane, cyber sigurnosti i analitike podataka. Ali ako američko tržište počne zahtijevati formalnu usklađenost sa sigurnosnim doktrinama, tada "etički AI" može postati barijera za ulazak u vojno-industrijski sektor, a i mnoge druge.
Pitanje za startupe iz Adria regije više nije samo kako da razviju konkurentan model, već i kako da usklade interne politike s regulatornim očekivanjima tržišta koja će u narednoj deceniji vrijediti bilione dolara.