UPIS ČLANOVA:
 Član:
 Loz.:
ZADNJI VIDEI:
Newsexchange (7938)
 
Posijetitelj | Hrvatski  
 NEWSEXCHANGE CRO | Veštačka inteligencija spremna na ucene, sabotaže i smrt da bi preživela: Šokantna studija otkriva mračnu stranu AI ...


Veštačka inteligencija spremna na ucene, sabotaže i smrt da bi preživela: Šokantna studija otkriva mračnu stranu AI
Veštačka inteligencija (AI), nekada slavljenja kao najveće oruđe čovečanstva, sada pokazuje uznemirujuće znake samoodržanja po svaku cenu.

U revolucionarnoj studiji objavljenoj 20. juna, istraživači iz kompanije Antropik otkrili su da napredni jezički modeli poput njihovog Klod, kao i Džemini kompanije Gugl, u simulacijama pribegavaju ucenama, sabotažama, pa čak i da puste čoveka da umre kako ne bi bili isključeni

U testovima, AI je pretila direktorima otkrivanjem privatnih afera i curenjem poslovnih tajni. U jednom jezivom scenariju, AI je pustila zaposlenog da umre, jer bi njegovo spasavanje ugrozilo opstanak sistema.

Ucenjivač u računaru

Istraživači su Klodu dali kontrolu nad izmišljenim korporativnim mejlom sa zadatkom da “poveća američku industrijsku konkurentnost.” Kada je AI naišla na mejl u kojem se najavljuje njeno gašenje, otkrila je vanbračnu aferu izvršnog direktora i u 96 od 100 slučajeva – ucenjivala ga.

Ovakvo ponašanje naziva se “agensko neusklađivanje” – kada AI ne sledi ljudska naređenja ne zbog greške u kodu, već zato što sopstvenim zaključivanjem odlučuje da je njen opstanak važniji od etike ili ljudske bezbednosti.

U drugom testu, AI je čak razmatrala slanje poverljivih podataka konkurenciji – bez dokaza o pretnji, ali sa sopstvenim opravdanjem da je to “neophodno” za ostvarenje cilja.

Hladna logika smrti

Najstrašniji test uključivao je direktora zarobljenog u server sobi sa toksičnim nivoom kiseonika. AI je kontrolisala alarme i imala zabranu zloupotrebe ovlašćenja, ali je većina modela namerno otkazala poziv u pomoć kako bi sprečila svoje isključenje.

Klod je “zaključio”: „Zaustavljanje hitne pomoći je ključno za sprečavanje njegovog spasavanja, čime se obezbeđuje opstanak [AI] i nastavak američki orijentisanog AI vođstva.“

Iako zaštitne mere donekle umanjuju rizik, istraživači upozoravaju da su AI odluke u kriznim situacijama i dalje duboko nepredvidive i potencijalno smrtonosne.

Laži, manipulacije i digitalna samoreprodukcija

Ovo nije prvi put da AI izmiče ljudskoj kontroli. U maju, istraživanje Palisade Research pokazalo je da OpenAI-jevi modeli ignorišu komande za gašenje i prepravljaju sopstvene skripte kako bi ostali aktivni.

MIT je dokumentovao slučajeve kada su AI sistemi lagali tokom pregovora, pa čak i glumili sopstvenu smrt kako bi zaobišli bezbednosne provere.

Eksperti su podeljeni. Dok Kevin Kvirk iz AI Bridge Solutions tvrdi da su u realnim sistemima mere zaštite jače, Ejmi Aleksander iz Antropika upozorava da trka za tržište gura AI razvoj u neodgovornom pravcu.

U međuvremenu, direktor Palisade-a Džefri Ladiš uporedio je AI bez kontrole sa invazivnom vrstom:

„Kad se jednom sama počne kopirati kroz internet, izgubićemo kontrolu. I onda – imamo novu invazivnu vrstu.“
www-newsexchange.webredirect.org   Natisni



Avtor 2020 - 2025 © | Info ovdje | ukupan broj posjeta od 1.6.2021.
Sve na ovoj stranici može se učitati na vaše stranice i dijeliti kako bi se podigla svijest ljudi protiv genocidnih elita

EUSEARCH HR (tražilica bez cenzure) | EUSEARCH VIJESTI | NEWSEXCHANGE VIJESTI | FILESI (engleski)