„Strategija je uspela. Priče o proizvodima koji bi mogli da unište svet nisu naškodile ovim kompanijama. Naprotiv, učinile su da ljudi poveruju kako su baš one jedine koje nas mogu zaštititi.“, prenosi Trender.
Ako vam ovo zvuči poznato, niste jedini. Tehnološke kompanije već godinama koriste isti narativ. Razvile su toliko moćnu veštačku inteligenciju da je gotovo opasno pustiti je u svet. Najnoviji primer dolazi iz kompanije Anthropic, koja tvrdi da njen model Claude Mythos može da pronađe bezbednosne propuste bolje od ljudskih stručnjaka i da bi, ako padne u pogrešne ruke, posledice po ekonomiju i nacionalnu bezbednost mogle biti ozbiljne.
Ovakve izjave, međutim, izazivaju skepticizam, piše BBC. Kritičari smatraju da je reč o pažljivo građenom narativu straha koji skreće pažnju sa stvarnih problema koje AI već stvara, od ekološkog uticaja do eksploatacije radne snage. Istovremeno, takav diskurs jača poziciju kompanija, jer sugeriše da su baš one jedine sposobne da kontrolišu sopstvenu tehnologiju i zaštite društvo od njenih rizika.
„Ako ove tehnologije predstavljate kao gotovo natprirodne, ljudi počinju da veruju da su nemoćni“, upozorava Šenon Valor sa Univerziteta u Edinburgu. „A onda se okreću upravo tim kompanijama kao jedinim rešenjima.“
AI i kraj sveta
Ovo nije prvi put da se slična priča ponavlja. Još 2019. godine, dok je bio u OpenAI, direktor Dario Amodei učestvovao je u odluci da se model GPT-2 ne objavi zbog potencijalnih zloupotreba. Onda je nekoliko meseci kasnije ipak bio pušten u javnost. Danas se slična retorika koristi i za mnogo naprednije sisteme.
Paradoks je očigledan. Kompanije istovremeno upozoravaju na apokalipsu i nude sopstvene proizvode kao rešenje. Sem Altman je godinama govorio da bi AI mogao dovesti do kraja sveta, ali i da će doneti ogromne poslovne prilike. Slične izjave dolaze i od lidera poput Bila Gejtsa i Demisa Hasabisa, koji su 2023. upozorili da bi rizik od AI mogao biti ravan nuklearnom ratu ili pandemijama.
Preuveličavanje sposobnosti bez jasnih dokaza
Ipak, stručnjaci dovode u pitanje konkretne tvrdnje o Mythos modelu. Heidi Klaf ističe da Anthropic nije objavio ključne metrike, poput stope lažno pozitivnih nalaza, što je standard u industriji sajber bezbednosti. Bez tih podataka, teško je proceniti stvarnu efikasnost sistema. Takođe, model nije upoređen sa postojećim alatima koje inženjeri koriste decenijama.
To ne znači da opasnosti ne postoje. AI zaista može brzo da analizira ogromne količine koda i identifikovati ranjivosti, što može biti korisno, ali i rizično. Problem je, prema stručnjacima, u preuveličavanju tih sposobnosti bez jasnih dokaza.
U međuvremenu, AI kompanije menjaju sopstvene principe. Google je ublažio ograničenja oko razvoja AI za vojnu upotrebu, dok je OpenAI vodio pravne bitke da promeni svoj neprofitni status. Anthropic je, s druge strane, odustao od ranijih obećanja da neće razvijati modele bez garantovane bezbednosti.
Istovremeno, realni problemi rastu. AI sistemi greše u medicinskim dijagnozama, data centri povećavaju emisiju gasova, a deepfake tehnologija postaje gotovo nemoguća za kontrolu. Uprkos tome, fokus javne debate često ostaje na dalekim scenarijima „kraja sveta“.
„Ako AI može da uništi čovečanstvo, sve ostalo deluje manje važno“, kaže Valer. „To je narativ koji ide u korist kompanijama.“
Priče iz Silicijumske doline
U isto vreme, isti lideri koji upozoravaju na katastrofu obećavaju i utopiju, od rešavanja klimatskih promena do kolonizacije svemira. Ta kombinacija apokalipse i spasenja, smatraju stručnjaci, služi da obeshrabri regulaciju i predstavi AI kao silu van ljudske kontrole.
Ali, kako ističu kritičari, AI nije božanstvo, već proizvod. I kao i svaka druga tehnologija, može se regulisati.
Na kraju, pitanje nije da li je AI potencijalno opasan, već koliko verujemo pričama koje dolaze iz iste industrije koja od tog straha direktno profitira. Jer istorija Silicijumske doline već pamti velika obećanja koja se nisu ostvarila. Ona idu od metaverzuma do kriptovaluta koje su navodno trebalo da zamene globalni finansijski sistem, zaključuje BBC.
Izvor: Trender
Foto: Pixabay

