IZRAEL ŠIRI SMRT UZ POMOĆ UMJETNE INTELIGENCIJE: Dosije Teheran: Ko je odgovoran za ubistva kod "Parka policije"?

Kad ime postane presuda: Slučaj „Parka policije“

  • Rat u zalivu

  • 10. Mar. 2026  10. Mar. 2026

  • 0

Društvenim mrežama kruže alarmantni izvještaji o upotrebi AI sistema u nedavnim napadima na Iran. Slučaj uništenog „Parka policije“ u Teheranu otvorio je Pandorinu kutiju: Da li smo ušli u eru ratovanja u kojoj mašina ne razlikuje park od kasarne, a čovjek više ne drži prst na obaraču?

Dok se svjetske sile utrkuju u razvoju najnaprednijih tehnologija, teorije o "probijanju blokada" protiv nasilja unutar vještačke inteligencije (AI) postaju sve glasnije. Najnoviji primjer iz Teherana, gdje je navodno srušen „Park policije“ samo zato što ga je algoritam zbog imena prepoznao kao prioritetnu vojnu metu, pokazuje zastrašujuću stranu digitalnog ratovanja.

Kad ime postane presuda: Slučaj „Parka policije“

Problem sa vještačkom inteligencijom u ratu nije samo njena preciznost, već i njena doslovnost. Ako je neuralna mreža programirana da neutrališe policijsku infrastrukturu, ona ne prepoznaje ironiju, istorijski kontekst ili činjenicu da je nešto samo park. Za nju je to podatak u nizu.

Ovaj incident, ako se potvrdi, označava prekretnicu – prelazak sa pametnog oružja na autonomno oružje koje samo interpretira stvarnost.

Šta nas čeka kada „svi nauče zanat“?

Stručnjaci upozoravaju da bi demokratizacija ove tehnologije mogla pretvoriti globalno ratište u digitalni haos. Evo tri ključna scenarija:

  1. Ratovanje brzinom svjetlosti: Čovjek je prespor za AI. Kada obje strane uključe algoritme, sukobi će se odvijati u milisekundama. Prije nego što general shvati da je napravljena greška, gradovi bi mogli biti u ruševinama.

  2. Gubitak moralne odgovornosti: Ko je kriv za uništen park ili bolnicu? Programer u Silicon Valleyju, oficir u Tel Avivu ili sam kod koji je „pogrešno zaključio“? U svijetu u kojem niko nije kriv, nasilje postaje lakše za opravdati.

  3. Algoritamska trka u naoružanju: Kada manje države ili čak ekstremističke grupe dobiju pristup sličnim modelima, niko više neće biti siguran. „Park policije“ bi mogao postati bilo koja škola, bolnica ili trg koji algoritam pogrešno označi.

Etika na aparatima

Dok se međunarodna zajednica bori da uspostavi pravila, tehnologija na terenu ide tri koraka ispred. Pitanje više nije može li se vještačka inteligencija koristiti za ubijanje, već ko će biti odgovoran kada mašina odluči da ste vi, ili park u vašem susjedstvu, legitimna meta.

„U ratu mašina, prva žrtva nije istina, već ljudska kontrola.“

Vezane vijesti

Komentari - Ukupno 0

NAPOMENA: Komentari odražavaju stavove njihovih autora, a ne nužno i stavove redakcije Slobodna Bosna. Molimo korisnike da se suzdrže od vrijeđanja, psovanja i vulgarnog izražavanja. Redakcija zadržava pravo da obriše komentar bez najave i objašnjenja. Zbog velikog broja komentara redakcija nije dužna obrisati sve komentare koji krše pravila. Kao čitalac također prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa vašim vjerskim, moralnim i drugim načelima i uvjerenjima.

  1. Lista komentara
  2. Dodaj komentar

trenutak ...