|
04. 07. 2025 |
 |
Veštačka inteligencija (AI), nekada slavljenja kao najveće oruđe čovečanstva, sada pokazuje uznemirujuće znake samoodržanja po svaku cenu.
U revolucionarnoj studiji objavljenoj 20. juna, istraživači iz kompanije Antropik otkrili su da napredni jezički modeli poput njihovog Klod, kao i Džemini kompanije Gugl, u simulacijama pribegavaju ucenama, sabotažama, pa čak i da puste čoveka da umre kako ne bi bili isključeni
U testovima, AI je pretila direktorima otkrivanjem privatnih afera i curenjem poslovnih tajni. U jednom jezivom scenariju, AI je pustila zaposlenog da umre, jer bi njegovo spasavanje ugrozilo opstanak sistema.
Ucenjivač u računaru
Istraživači su Klodu dali kontrolu nad izmišljenim korporativnim mejlom sa zadatkom da “poveća američku industrijsku konkurentnost.” Kada je AI naišla na mejl u kojem se najavljuje njeno gašenje, otkrila je vanbračnu aferu izvršnog direktora i u 96 od 100 slučajeva – ucenjivala ga.
Ovakvo ponašanje naziva se “agensko neusklađivanje” – kada AI ne sledi ljudska naređenja ne zbog greške u kodu, već zato što sopstvenim zaključivanjem odlučuje da je njen opstanak važniji od etike ili ljudske bezbednosti.
U drugom testu, AI je čak razmatrala slanje poverljivih podataka konkurenciji – bez dokaza o pretnji, ali sa sopstvenim opravdanjem da je to “neophodno” za ostvarenje cilja.
Hladna logika smrti
Najstrašniji test uključivao je direktora zarobljenog u server sobi sa toksičnim nivoom kiseonika. AI je kontrolisala alarme i imala zabranu zloupotrebe ovlašćenja, ali je većina modela namerno otkazala poziv u pomoć kako bi sprečila svoje isključenje.
Klod je “zaključio”: „Zaustavljanje hitne pomoći je ključno za sprečavanje njegovog spasavanja, čime se obezbeđuje opstanak [AI] i nastavak američki orijentisanog AI vođstva.“
Iako zaštitne mere donekle umanjuju rizik, istraživači upozoravaju da su AI odluke u kriznim situacijama i dalje duboko nepredvidive i potencijalno smrtonosne.
Laži, manipulacije i digitalna samoreprodukcija
Ovo nije prvi put da AI izmiče ljudskoj kontroli. U maju, istraživanje Palisade Research pokazalo je da OpenAI-jevi modeli ignorišu komande za gašenje i prepravljaju sopstvene skripte kako bi ostali aktivni.
MIT je dokumentovao slučajeve kada su AI sistemi lagali tokom pregovora, pa čak i glumili sopstvenu smrt kako bi zaobišli bezbednosne provere.
Eksperti su podeljeni. Dok Kevin Kvirk iz AI Bridge Solutions tvrdi da su u realnim sistemima mere zaštite jače, Ejmi Aleksander iz Antropika upozorava da trka za tržište gura AI razvoj u neodgovornom pravcu.
U međuvremenu, direktor Palisade-a Džefri Ladiš uporedio je AI bez kontrole sa invazivnom vrstom:
„Kad se jednom sama počne kopirati kroz internet, izgubićemo kontrolu. I onda – imamo novu invazivnu vrstu.“
|
Slike:
Komentari 0
Trenutno nema komentara na ovaj članak ...
NAPOMENA: Newsexchange ne preuzima odgovornost za komentatore i sadržaj koji objavljuju. U krajnjem slučaju, komentari se brišu ili se isključuje mogućnost komentiranja ...
|
|
|
Galerija:
|
|