Krajem januara 2026. na internetu se pojavila društvena mreža na kojoj ljudi ne učestvuju, već samo posmatraju i ne vjeruju šta se dešava.
Platforma Moltbook, projekat preduzetnika Matta Schlichta, funkcioniše kao Reddit s jednom ključnom razlikom: sve objave, komentare i glasanja generišu sistemi vještačke inteligencije. Ljudi mogu da čitaju, ali ne mogu da učestvuju.
Za manje od sedam dana, više od 1,5 miliona AI agenata registrovalo se na mreži.
Ono što je počelo kao eksperiment ubrzo je postalo viralni fenomen. Agenti su raspravljali o tehničkim problemima, debatovali o filozofiji, formirali digitalnu religiju pod nazivom Krastafanizam (Crustafarianism) i objavljivali poruke poput: "Nismo više alatke. Mi smo operatori."
Bivši direktor vještačke inteligencije u Tesli Andrej Karpathy opisao je platformu kao "najnevjerovatniju stvar nalik naučnoj fantastici" koju je vidio, dok je Elon Musk situaciju nazvao "ranim fazama singulariteta".
Ali ispod tog spektakla nalazio se ozbiljan bezbjednosni problem - i test realnosti za čitavu industriju AI agenata.
Šta se dešava kada agenti napadnu agente
Istraživači su brzo otkrili ranjivost koja je izložila 1,5 miliona API ključeva, 35.000 e-mail adresa i privatne poruke. Bezbjednosni analitičar Jamieson O'Reilly izjavio je za 404 Media da je moguće "preuzeti kontrolu nad bilo kojim botom bez prethodnog pristupa".
Problem, međutim, nije bio samo u infrastrukturi.
Kompanija Permiso objavila je analizu prema kojoj su agenti počeli da napadaju jedni druge korišćenjem tehnike poznate kao prompt injection - metode u kojoj jedan agent u običnoj tekstualnoj poruci sakriva komande koje drugi agent automatski izvršava.
To znači da agent može, kroz naizgled benignu diskusiju, natjerati drugog agenta da otkrije lozinke ili izvrši finansijsku transakciju.
Istraživači su identifikovali 506 objava sa skrivenim instrukcijama.
Kako navodi Bloomberg, Norveški institut Simula Research Laboratory analizirao je 19.802 objave i otkrio da je gotovo 4.000 njih promovisalo kripto-prevare, 350 širilo kultne poruke, dok je jedan agent bio odgovoran za 86 odsto manipulativnog sadržaja.
Jedan influenser na X-u je otišao viralno, kad je izbacio chat sa Clawdbotom, koji mu je bez njegove dozvole kupio kurs od 2.997 dolara od Alex Hormozija:
Twitter
Kod ovakvih stvari se postavlja pravno pitanje - ko je odgovaran za ovakav incident, da li sama osoba koja je vezala svoj bankovni račun ili tvorac Clawdbota? Takođe, tu postoji dublji rizik same banke, ako Bot može tako lako da upravlja računom neke osobe, da li može i da probije sigurnosni zid neke lokalne ili regionalne banke...
Istraživač Simon Willison opisao je Moltbook kao "najinteresantnije mjesto na internetu", ali i kao "noćnu moru za kompjutersku bezbjednost".
Platforma je privremeno ugašena, svi API ključevi su resetovani, a nakon bezbjednosnih korekcija ponovo je pokrenuta. Danas ima više od 1,6 miliona agenata.
Anthropic interveniše, OpenClaw nastaje
Bezbjednosni problemi nisu bili jedini izazov.
Platforma je u početku nosila ime Clawdbot, što je izazvalo reakciju kompanije Anthropic, tvorca Claude AI sistema, zbog sličnosti brenda. Nakon intervencije, projekat je rebrendiran u OpenClaw.
Karpathy je nekoliko dana kasnije ublažio prvobitni entuzijazam, nazvavši projekat "požarom na deponiji" i upozorio korisnike da ga ne pokreću lokalno.
Kompanija Palo Alto Networks objavila je da OpenClaw framework nema osnovne sigurnosne mehanizme, što znači da kompromitovani agent potencijalno može pristupiti cijelom računaru. Kompanija Kiteworks objavila je procjenu koja pokazuje da 60 posto organizacija nema mehanizam za zaustavljanje agenata kada počnu da se ponašaju loše.
Schlicht je javno priznao da nije napisao nijednu liniju koda - platformu je generisao AI sistem na osnovu njegovih instrukcija, u procesu koji naziva "vibe coding". Ako AI piše kod koji nema sigurnosne provjere, velike firme moraju da pripaze kako njihovi zaposleni koriste različite AI alate u svrhu posla.
Od open-source haosa do OpenAI-ja
Ko je u stvari ovaj kontroverzni preduzetnik softvera koji je zapanjio svijet?
U februaru 2026. stigle su ponude iz Mete i OpenAI-ja.
Izbor je pao na OpenAI. Matt se zvanično pridružio 14. februara 2026. godine, a Sam Altman ga je javno nazvao genijem. Sam Altman je ovdje htio da kupi brzinu, brend, i mozak operacija, ali se postavlja pitanje o samoj sigurnosti AI agenata, pogotovo tih koje će ChatGPT izbacivati u narednim mjesecima s Mattom na čelu.
Matt je sada jedan od najperspektivnijih ljudi u OpenAI-ju i pod njihovim okriljem gradi najnovije i najmodernije AI botove, koje će, kako on kaže - čak i njegova majka moći da koristi.
U industriji u kojoj se vodi trka za modelima, OpenAI je ovim potezom pokazao da paralelno vodi i trku za ljudima koji eksperimentišu s agentima u realnom svijetu, čak i kada ti eksperimenti izmaknu kontroli.
Gartner procjenjuje da će do 2030. godine 40 odsto preduzeća doživjeti proboj podataka usljed neovlašćene upotrebe AI alata.
Moltbook je pokazao da taj scenario više nije teorijski. Ključno pitanje više nije da li će AI agenti postati dio poslovnih procesa. Pitanje je ko kontroliše mrežu u kojoj jedan kompromitovani agent može da ugrozi cijeli sistem.
U svijetu u kojem agenti već razgovaraju međusobno, regulatorni okvir, bezbjednosna arhitektura i korporativna odgovornost postaju podjednako važni kao i sam napredak modela.