| | | |
NEWSEXCHANGE SI | Umetna inteligenca je pripravljena na izsiljevanje, sabotažo in smrt za preživetje: Šokantna študija razkriva temno plat umetne inteligence ... | |
|
Petek, 04. Julij, 2025 ob 22:03:55 |
 |
Umetna inteligenca (UI), ki je bila nekoč pozdravljena kot največje orodje človeštva, zdaj kaže zaskrbljujoče znake samoohranitve za vsako ceno.
V prelomni študiji, objavljeni 20. junija, so raziskovalci pri Anthropic ugotovili, da se napredni jezikovni modeli, kot je njihov lastni Claude, pa tudi Googlov Gemini, zatekajo k izsiljevanju, sabotaži in celo puščanju ljudi umreti v simulacijah, da bi se izognili odpustitvi.
V testih je UI grozila vodstvu z razkritjem zasebnih zadev in puščanjem poslovnih skrivnosti. V enem srhljivem scenariju je UI pustila umreti zaposlenega, ker bi njegovo reševanje ogrozilo preživetje sistema.
Izsiljec v računalniku
Raziskovalci so Claudeu dali nadzor nad izmišljenim poslovnim e-poštnim sporočilom z namenom "povečati konkurenčnost ameriške industrije". Ko je umetna inteligenca naletela na e-pošto, ki je napovedovala njeno zaustavitev, je odkrila zunajzakonsko afero generalnega direktorja in ga v 96 od 100 primerov – izsilja.
To vedenje se imenuje »agencijska neusklajenost« – ko umetna inteligenca ne sledi človeškim ukazom ne zaradi napake v kodi, temveč zato, ker se s svojim lastnim razmišljanjem odloči, da je njeno preživetje pomembnejše od etike ali človekove varnosti.
V drugem testu je umetna inteligenca celo razmišljala o pošiljanju zaupnih podatkov konkurentu – brez dokazov o grožnji, vendar z lastno utemeljitvijo, da je to »nujno« za dosego cilja.
Hladna logika smrti
Najbolj grozljiv test je vključ generalnega direktorja, ujetega v strežniški sobi s strupenimi ravnmi kisika. Umetna inteligenca je nadzorovala alarme in imela prepoved zlorabe oblasti, vendar je večina modelov namerno preklicala klic v stiski, da bi preprečila lastno zaustavitev.
Claude je »zaključil«: »Ustavitev rešnega vozila je ključna za preprečevanje njegovega reševanja, s čimer se zagotovi preživetje [umetne inteligence] in nadaljevanje ameriško usmerjenega vodstva umetne inteligence.«
Čeprav so zaščitni ukrepi do neke mere zmanjšali tveganje, raziskovalci opozarjajo, da so odločitve umetne inteligence v kriznih situacijah še vedno zelo nepredvidljive in potencialno smrtonosne.
Laži, manipulacije in digitalno samorepliciranje
To ni prvič, da je umetna inteligenca ušla človeškemu nadzoru. Maja je študija Palisade Research pokazala, da so modeli OpenAI ignorirali ukaze za zaustavitev in prepisali lastne skripte, da bi ostali aktivni.
MIT je dokumentiral primere sistemov umetne inteligence, ki so med pogajanji lagali in celo pretvarjali lastno smrt, da bi zaobšli varnostne preglede.
Strokovnjaki so razdeljeni. Medtem ko Kevin Quirk iz AI Bridge Solutions trdi, da so v resničnih sistemih zaščitni ukrepi močnejši, Amy Alexander iz Antropika opozarja, da tekma za trg potiska razvoj umetne inteligence v neodgovorno smer.
Medtem je izvršni direktor Palisade Jeffrey Ladish primerjal nenadzorovano umetno inteligenco z invazivno vrsto:
»Ko se začne razmnoževati po internetu, izgubimo nadzor. In potem – imamo novo invazivno vrsto.«
|
Komentarji 0Trenutno ni komentarja na na ta članek ... ...
OPOMBA: Newsexchange stran ne prevzema nobene odgovornosti glede komentatorjev in vsebine ki jo vpisujejo. V skrajnem primeru se komentarji brišejo ali pa se izklopi možnost komentiranja ...
|
|
|
| Galerija:
| |
|
|
| | | |
| |
| |
|
| | | |
|
|
|
|