NEWSEXCHANGE CRO | AI pokreće nove ratove, „liječi“ rak… Sve je jasnije čemu služi priča o „umjetnoj inteligenciji“ ...
AI pokreće nove ratove, „liječi“ rak… Sve je jasnije čemu služi priča o „umjetnoj inteligenciji“
Novi alat globalističke mafije za manipulaciju i kontrolu
Umjetna inteligencija (AI) predstavljana je kao tehnološki spasitelj, alat koji će revolucionirati medicinu, obrazovanje i sigurnost. No, iza sjajne fasade krije se mračna istina: AI nije samo tehnologija, već oružje u rukama globalističke mafije koja ga koristi za provedbu svojih agendi. Narativ o “povjerenju u umjetnu inteligenciju” nije slučajan – to je pomno osmišljena strategija kako bi se zamaglila odgovornost živih ljudi i opravdale odluke koje vode u ratove, manipulacije i kontrolu masa. Slučaj napada na Iran 2025. godine pokazuje kako AI postaje ključni igrač u ovoj opasnoj igri, dok istovremeno otkriva zašto globalistička mafija nastoji prebaciti odgovornost na strojeve.
Rat pokrenut algoritmom: Slučaj Irana
Dana 13. lipnja 2025. Izrael je, uz podršku SAD-a pod vodstvom Donalda Trumpa, izveo zračne napade na iranska nuklearna postrojenja. Povod? Tvrdnja da je Iran bio na pragu izgradnje nuklearne bombe. No, ova alarmantna optužba nije se temeljila na klasičnim obavještajnim podacima, već na analizi sustava umjetne inteligencije pod nazivom Mosaic, razvijenog od strane američke tvrtke Palantir.
Mosaic je od 2015. godine u uporabi Međunarodne agencije za atomsku energiju (IAEA) za “analizu prijetnji”. Sustav ne pruža konkretne dokaze, već se oslanja na prepoznavanje uzoraka – kretanja, metapodatke, anomalije. Na temelju tih apstraktnih zaključaka, Mosaic je proglasio “neprijateljske namjere” Irana, bez ikakvih dokaza o stvarnom vojnom nuklearnom programu. Samo dan prije napada, 12. lipnja, IAEA je donijela rezoluciju kojom se Iran optužuje za “nepoštivanje sporazuma” – rezoluciju temeljenu isključivo na algoritmičkim zaključcima.
Nekoliko dana kasnije, šef IAEA-e Rafael Grossi posramljeno je priznao na CNN-u: „Nemamo dokaza o sustavnim naporima Irana da razvije nuklearno oružje.“ No šteta je već bila učinjena. Rat je započeo, a globalna javnost suočila se s novom stvarnošću: odluke o životu i smrti više ne donose ljudi na temelju činjenica, već algoritmi bez transparentnosti.
AI kao izgovor za političke i vojne agende
Slučaj Irana otkriva kako AI služi kao savršeni izgovor za političke i vojne odluke. U Izraelu su komentatori otvoreno govorili o „prozoru prilike“ za napad, priznajući da nije postojao konkretan okidač. Prema insajderskim izvorima, izraelski premijer Benjamin Netanyahu i general CENTCOM-a Michael Kurilla nagovorili su Trumpa na vojnu intervenciju, unatoč suprotnim procjenama američke obavještajne zajednice, uključujući izjavu direktorice nacionalne obavještajne službe Tulsi Gabbard da „Iran nema bombu“.
Ovdje postaje jasno: AI nije samo alat za analizu, već mehanizam za zamagljivanje odgovornosti. Umjesto da političari ili vojni zapovjednici preuzmu odgovornost za svoje odluke, krivnja se prebacuje na „nezaustavljivu“ i „objektivnu“ umjetnu inteligenciju. Rezultat? Rat protiv Irana nije bio obrambeni čin, već političko-tehnokratska operacija u kojoj je AI poslužila kao diplomatsko pokriće.
Zašto prebacuju odgovornost na strojeve?
Prebacivanje odgovornosti na AI nije samo praktično – ono ima dublje motive koji sežu u psihologiju i uvjerenja globalističke mafije. Donoseći direktne odluke, političari, vojni lideri i korporativni moguli izlažu se javnoj kritici, pravnoj odgovornosti i moralnim dilemama. AI, međutim, nudi savršenu zaštitu: algoritam je bezličan, ne može se ispitivati na sudu niti se suočiti s prosvjedima. Kada AI „odluči“ da je potrebno bombardirati zemlju ili primijeniti određeni medicinski tretman, članovi globalističke mafije se mogu sakriti iza narativa o „objektivnosti“ i „naprednoj tehnologiji“.
No, tu se krije i duhovna komponenta. Globalistička mafija često se povezuje s ezoteričnim uvjerenjima i konceptom karme – zakona uzroka i posljedice koji određuje sudbinu na temelju djelovanja. Prema njihovom tumačenju, ako osobno donose odluke koje rezultiraju patnjom, ratovima ili smrću, to bi moglo negativno utjecati na njihovu „karmičku bilancu“. Prebacivanjem odgovornosti na AI, oni pokušavaju „prevariti“ karmu: stroj, a ne čovjek, postaje „uzrok“ akcije, čime se oslobađaju osjećaja krivnje i potencijalnih duhovnih posljedica.
Ova praksa prebacivanja odgovornosti na AI zlokobno podsjeća na metode Svete inkvizicije u srednjem vijeku. Tada su crkveni službenici tvrdili da ne donose osobne odluke o progonu vještica ili heretika, već da djeluju u ime „božje volje“ ili „crkvenog autoriteta“. Optužbe su često bile temeljene na neprozirnim dokazima – snovima, vizijama ili nejasnim svjedočenjima – koji nisu dopuštali osporavanje. Slično tome, današnji algoritmi poput Mosaica proizvode zaključke na temelju netransparentnih uzoraka, a globalistička mafija ih koristi kao „višu silu“ za opravdanje svojih akcija. Kao što je Inkvizicija koristila strah od Boga da ušutka kritičare, tako današnje elite koriste mit o „nepogrešivosti AI-ja“ da neutraliziraju otpor, čime se nastavlja tradicija manipulacije pod plaštem neupitnog autoriteta.
Od ratova do medicine: AI kao univerzalni manipulator
Manipulacija putem AI ne završava na ratnim poljima. Globalistička mafija koristi istu tehnologiju za kontrolu drugih aspekata života. U medicini, na primjer, najavljuje se da će AI „personalizirati“ tretmane, poput pripravaka za liječenje raka „dizajniranih samo za vas“. No, tko stoji iza tih algoritama? Tko određuje koje podatke AI koristi i koje zaključke donosi? Ako algoritam „preporuči“ određeni lijek, hoće li pacijenti imati pravo na uvid u proces odlučivanja? Vjerojatno ne – jer je AI „nadmoćna sila“ kojoj se moramo pokoriti.
Ova logika otvara vrata masovnoj manipulaciji. Umjesto da se suočavamo s ljudskim odlukama koje možemo propitati, bit ćemo prisilni prihvatiti ono što AI „odredi“ – od medicinskih tretmana do društvenih politika. Narativ o „povjerenju“ u AI-u služi upravo tome: da nas uvjeri kako je algoritam nepristran, dok se iza kulisa odvijaju planovi moćnih.
Nova kontrole
Slučaj Irana samo je početak. Ako sustavi poput Mosaica mogu pokrenuti rat bez dokaza, što ih sprječava da oblikuju izbore, ekonomije ili čak pojedinačne živote? Međunarodno pravo, koje se temelji na činjenicama i odgovornosti, riskira da postane puka simulacija. AI postaje oružje koje zamagljuje stvarnost, omogućavajući globalističkoj mafiji da provodi svoje planove bez otpora.
Zaključno, umjetna inteligencija nije neutralna tehnologija. To je alat koji se koristi za provedbu agendi onih koji ga kontroliraju. Narativ o „povjerenju“ u AI samo je dio strategije za uklanjanje odgovornosti i kritike, potkrijepljen uvjerenjima elita o izbjegavanju karmičkih posljedica. Ako želimo zaštititi svoju slobodu, moramo postati svjesni opasnosti kojeg donosi svijet koji je poklonio svoje povjerenje „umjetnoj inteligenciji“, te propitivati tko stoji iza svih tih „neovisnih“ algoritama i kakve planove oni imaju. Jer, ako to ne učinimo, riskiramo da nestanemo u rovovima nekih novih ratova ili u bolničkim krevetima od posljedica „revolucionarnih personaliziranih tretmana protiv raka“ – sve pod izgovorom „nadmoćne umjetne inteligencije“.