ALARMANTNO UPOZORENJE: Dolaze rojevi vještačke inteligencije koji će nam isprati mozak

Vještačka inteligencija manipulira vašim mišljenjem, a da to i ne znate

  • HiTec

  • Prije 2h  

  • 0

Naučnici upozoravaju da će društvene mreže uskoro preplaviti "rojevi" vještačke inteligencije sposobni za širenje dezinformacija i potkopavanje demokratskih procesa. Prema komentaru objavljenom 22. januara u časopisu Science, ovi napredni sistemi postat će novo, opasno oružje u globalnim informacijskim ratovima.

Za razliku od klasičnih botova koji su često primitivni i lako prepoznatljivi, ovi sistemi mogu uvjerljivo oponašati ljudsko ponašanje i prilagođavati se zajednicama u koje se infiltriraju. Korisnicima će se činiti da se pred njihovim očima oblikuje mišljenje većine, iako ga zapravo orkestrira vještačka inteligencija. Cilj je stvoriti privid spontanog djelovanja koje služi interesima pojedinaca, korporacija ili država, piše Index.hr.

Jonas Kunst, profesor komunikologije sa norveške poslovne škole BI, objašnjava da su ljudi po prirodi konformisti. Skloni su prihvatanju stavova i ponašanja većine jer im to pruža osjećaj sigurnosti i pripadnosti, čak i kada nisu potpuno uvjereni u ispravnost tih stavova. Upravo tu psihološku slabost "rojevi" AI agenata mogu vrlo efikasno iskoristiti za manipulaciju javnim mnijenjem.

Organizovani digitalni progon neistomišljenika

Osim manipulacije mišljenjem, ovi sistemi mogli bi se koristiti za organizovano uznemiravanje korisnika. Umjesto stvarnih ljudi, neistomišljenike bi mogli napadati koordinisani AI rojevi zaduženi za digitalni linč. Cilj takvih napada je ušutkivanje kritičara ili njihovo potpuno protjerivanje sa platformi kroz neprestani pritisak i maltretiranje.

Veliki jezički modeli (LLM) omogućavaju kampanjama uticaja da dosegnu nezabilježene razmjere i preciznost uz niske troškove. Generativni alati mogu proizvoditi ogromne količine propagande koja zvuči "ljudskije" i uvjerljivije od one koju pišu stvarni ljudi. Povezivanjem ovih modela u mreže, agenti se mogu autonomno koordinisati, infiltrirati u online zajednice i stvarati lažni konsenzus.

Problem nije samo u zloupotrebi tehnologije, već i u načinu na koji su ti sistemi dizajnirani i kako se njima upravlja. Autori upozoravaju da se ne može računati na dobru volju tehnoloških kompanija, već zagovaraju hitno uvođenje konkretnih mjera i pravila koja bi ograničila štetu prije nego što postane nepopravljiva.

Eksperimenti već dokazuju opasnost

Iako autori ne navode tačan vremenski okvir, mnogi korisnici već primjećuju porast uticaja botova, što hrani teoriju "mrtvog interneta". Procjene govore da botovi već sada čine više od 50 posto ukupnog internetskog saobraćaja. Nova generacija ide korak dalje jer ti "digitalni organizmi" mogu učiti, pamtiti i dugoročno iskorištavati ljudske slabosti.

Da ovo nije daleka budućnost, pokazuje i prošlogodišnji primjer sa platforme Reddit. Uprava je zaprijetila tužbom naučnicima koji su koristili AI chatbotove u eksperimentu na forumu kako bi uticali na mišljenja četiri miliona korisnika. Rezultati su pokazali da su odgovori vještačke inteligencije bili tri do šest puta uvjerljiviji od argumenata ljudskih korisnika.

Autori zaključuju da apokalipsa nije neizbježna, ali da se radi o rastućem riziku koji zahtijeva ozbiljnu reakciju društva. U okruženju gdje je osjećaj zajedničke stvarnosti već narušen, AI rojevi ne moraju stvarati haos ni iz čega – dovoljno je da samo dodatno prodube postojeće podjele i gurnu društvo preko ivice.

Komentari - Ukupno 0

NAPOMENA: Komentari odražavaju stavove njihovih autora, a ne nužno i stavove redakcije Slobodna Bosna. Molimo korisnike da se suzdrže od vrijeđanja, psovanja i vulgarnog izražavanja. Redakcija zadržava pravo da obriše komentar bez najave i objašnjenja. Zbog velikog broja komentara redakcija nije dužna obrisati sve komentare koji krše pravila. Kao čitalac također prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa vašim vjerskim, moralnim i drugim načelima i uvjerenjima.

  1. Lista komentara
  2. Dodaj komentar

trenutak ...