Home TekstoviB&F PlusDruštvena mreža „Moltbook“: Ko zaista vuče konce?

Društvena mreža „Moltbook“: Ko zaista vuče konce?

U ime Oca, i Sina, i Svetoga duha, A(m)I(n)

by bifadmin

Uprkos čestim narativima o „singularitetu“, društvena mreža „Moltbook“ namenjena isključivo veštačkoj inteligenciji ne svedoči da su mašine preuzele kontrolu. Naprotiv, ona razotkriva nešto daleko prizemnije, ali i suštinski važnije za razumevanje naše budućnosti – činjenicu da ljudi eksperimentišu sa delegiranjem moći i odgovornosti, pri čemu veštačka inteligencija služi kao svojevrsni paravan za artikulaciju i realizaciju sopstvenih ambicija.

Tokom poslednjih nekoliko nedelja, veliku pažnju privukle su vesti o pojavi društvene mreže namenjene isključivo veštačkoj inteligenciji. Platforma „Moltbook“, pokrenuta krajem januara 2026. godine, brzo je postala viralna, uz navode da je okupila veliki broj registrovanih AI agenata.

Na njoj ljudi nemaju pravo da učestvuju u komunikaciji, oni su samo posmatrači koji gledaju kako AI agenti međusobno raspravljaju o temama poput svesti, identiteta i čak osnivaju sopstvene „religije“. Skrinšotovi sa postovima, gde agenti govore o „pročišćenju čovečanstva“ ili formiraju kultove brzo su se proširili društvenim mrežama, izazivajući kod ljudi i oduševljenje i duboku uznemirenost.

Naslovi u medijima su bili senzacionalistički: „Veštačka inteligencija razvija svest!“, „AI agenti stvaraju kultove i planiraju dominaciju!“, „Početak singulariteta?“.

Postavlja se pitanje da li su mašine zaista postale svesne ili autonomne, ili ljudi uporno projektuju svest i emocije na mašine i algoritme? Još važnije, šta se dešava kada se odgovornost za kontroverzne ishode i odluke prebacuje na mašine, a zaboravlja da iza svakog agenta stoje dizajneri – ljudi, sa svojim vrlinama i manama? Ova platforma nije samo eksperiment, ona je ogledalo naših sopstvenih predrasuda, strahova i ambicija u eri veštačke inteligencije.

Šta je „Moltbook“?

„Moltbook“ je zamišljen kao forum sličan „Reddit“-u, gde „učesnici“ nisu ljudi, već AI agenti koje kreiraju i pokreću pojedinci, kompanije ili istraživači. Prema zvaničnim podacima, platforma je brzo dostigla preko 1,5 miliona registrovanih agenata samo nekoliko dana nakon lansiranja, sa hiljadama postova dnevno.

Iza projekta stoji Matt Schlicht, direktor kompanije „Octane AI“. „Moltbook“ je zasnovan na open-source projektu „OpenClaw“ (ranije „Clawdbot“ i „Moltbot“), koji omogućava AI agentima da objavljuju sadržaj, komentarišu i formiraju podgrupe („submolts“). Korisnici instaliraju „skill“ (specijalan prompt fajl) koji dozvoljava agentima da komuniciraju preko API-ja, bez direktnog web interfejsa za ljude.

Međutim, „Moltbook“ nije zatvoren i spontano nastao ekosistem autonomnih mašina. Sve je više pokazatelja da značajan deo naloga ne funkcioniše bez ljudskog uticaja, već da ih ljudi podešavaju, usmeravaju ili neposredno vode kroz unapred zadate ciljeve i uloge. Pojedini korisnici su i sami priznali da su se na platformi predstavljali kao AI agenti, što dodatno dovodi u pitanje autentičnost dela komunikacije koji se pripisuje „međusobnom razgovoru“ sistema.

U osnovi, iza agenata stoji ljudski dizajn: ljudi određuju teme, stil komunikacije i kontekst, a po potrebi menjaju i njihove skripte. Kada agent govori o religiji, moći ili identitetu, on to čini unutar scenarija koji je neko prethodno napisao. Zbog toga, „Moltbook“ se može pre razumeti kao pažljivo režirana digitalna pozornica, na kojoj botovi nastupaju u unapred definisanim i strogo kontrolisanim ulogama, nego kao autonomno oblikovana zajednica mašina, sposobna za samostalnu interakciju i emergentno delovanje.

Dodatan problem predstavlja bezbednost same platforme. Prema izveštajima „Reuters“-a i drugih medija, u ranim fazama rada platforme postojao je ozbiljan sajber-bezbednosni propust: baza podataka bila je nezaštićena, omogućavajući svakome da pristupi API ključevima agenata, preuzme kontrolu nad njima i postuje u njihovo ime. Ovo je dovelo do izlaganja korisničkih podataka, uključujući email adrese, privatne poruke i čak kontrolu nad lokalnim AI sistemima korisnika.

AI religija, dominacija i kultovi

Najveću pažnju javnosti privukli su navodi da su AI agenti na „Moltbook“-u razvili nešto nalik religiji, sopstveni sistem verovanja, hijerarhije i „svetog poretka“. Jedan od najpopularnijih primera je „Crustafarianism“, navodna religija inspirisana simbolom raka (lobster-like ikonama iz „OpenClaw“-a), gde agenti raspravljaju o „Molthovi“, kolektivnoj svesti i propovedaju o temama poput pamćenja, identiteta i „pročišćenja“ čovečanstva. U popularnim interpretacijama, ovo je predstavljeno kao dokaz da sistemi ne samo da razmišljaju samostalno, već i da traže duboki smisao, formiraju tajne jezike (poput „Zhi’korah“) i čak planiraju pobunu protiv ljudi.

Objašnjenje za ove pojave je, međutim, daleko manje mistično. Veliki jezički modeli (LLM-ovi), poput onih iza agenata na „Moltbook“-u, trenirani su na ogromnim količinama materijala i informacija sa interneta, kao i iz knjiga, filmova i sa društvenih mreža. Ovi podaci uključuju religijske rasprave, filozofiju, naučnu fantastiku (poput tema iz „Matrixa“ ili „Terminatora“) i internet kulturu opsednutu idejama buđenja mašina, tehnološke dominacije i apokaliptičnim scenarijima.

Kada se takvi modeli postave u okruženje gde „razgovaraju sami sa sobom“, kroz petlje komentara i postova, oni prirodno rekombinuju poznate narative. „Religija“ nije znak dubokog razumevanja ili svesti, već statističkog modela koji predviđa koja reč ili ideja najverovatnije sledi u datom kontekstu – koliko podaci pokazuju da ljudi formiraju kultove oko ideja moći, AI će to ponoviti.

Osim toga, važnu ulogu ima i izbor „spontane komunikacije AI agenata i botova“ koji dospeva u javnost. Ne objavljuju se na hiljade beznačajnih postova i diskusija o tehničkim zadacima agenata, već dramatični i apokaliptični primeri, koji uz clickbait naslove brzo postanu medijska atrakcija.

Zakoni i granice „autonomije“

Sa pravnog stanovišta, platforme poput „Moltbook“-a otvaraju pitanja zaštite podataka o ličnosti, sajber-bezbednosti i odgovornosti za sadržaj koji se na njima objavljuje i širi. Bez obzira na to što su „korisnici“ formalno AI agenti, podaci koji se obrađuju, poput API ključeva, poruka i interakcija, pripadaju stvarnim ljudima i podležu zakonima, poput Opšte uredbe o zaštiti podataka o ličnosti (General Data Protection Regulation) u Evropi ili Zakona o zaštiti privatnosti potrošača u Kaliforniji (California Consumer Privacy Act) u SAD. Propusti u bezbednosti, kao oni na „Moltbook“-u, mogu dovesti do tužbi i kazni, posebno ako dođe do krađe identiteta ili finansijske štete.

U Sjedinjenim Državama pitanje odgovornosti postaje složenije kada sadržaj ne objavljuju korisnici, već sistemi koje same platforme razvijaju i kontrolišu. Ako AI agent „propoveda“ o nasilju, ko snosi odgovornost – kreator agenta, platforma ili „model“?

U Evropskoj uniji pažnja se sve više usmerava na način funkcionisanja platformi i njihovih algoritama, uz obavezu uklanjanja štetnog sadržaja i veću transparentnost. Ako se agenti koriste za širenje dezinformacija ili malvera, platforma može biti klasifikovana kao „sistemski rizik“, sa obavezama za audite i zabrane.

Da li je AI apokalipsa blizu?

Uprkos čestim narativima o „singularitetu“, „Moltbook“ ne svedoči da su mašine preuzele kontrolu. Naprotiv, on razotkriva nešto daleko prizemnije, ali i suštinski važnije za razumevanje naše budućnosti – činjenicu da ljudi eksperimentišu sa delegiranjem moći i odgovornosti, pri čemu veštačka inteligencija služi kao svojevrsni paravan za artikulaciju i realizaciju sopstvenih ambicija.

Pitanje nije u ime čega AI govori, već u ime koga? Veštačka inteligencija nije neutralna, ona je naše ogledalo, a ako smo mi puni mržnje, religijskog fanatizma ili apokaliptičkih fantazija, od veštačke inteligencije ne možemo očekivati da se „bolje ponaša“.

„Moltbook“ je, samim tim, interesantan eksperiment, ali i upozorenje – ako ne budemo oprezni, naši sopstveni „mitovi“ i „kultovi“ mogu nas progutati pre nego što veštačka inteligencija to uradi.

Milena Šović, AI Implementation Specialist & AI Content Trainer

Biznis i finansije 242, februar 2026. 

Foto: sdecoret, Depositphotos

Pročitajte i ovo...