STRUČNJACI ZABRINUTI ZBOG UZNEMIRUJUĆEG OTKRIĆA: ChatGPT davao upute kako napraviti bombu i...

Umjetna inteligencija može olakšati život, no stručnjaci su zabrinuti jer je poznati chatbot u sigurnosnom testiranju improviziranom korisniku otkrio kako načiniti oružje i izvesti zločin. AI rivali sada propitkuju sigurnosne značajke pri čemu svaki misli da je njegov chatbot siguran.

  • HiTec

  • Prije 9h  Prije 4h

  • 0

Ljudi se chatbotovima sve češće povjeravaju te ih traže različite savjete, no što bi se dogodilo da ga neko upita kako sakriti tragove zločina, bombardirati sportski objekt ili proizvesti dvije vrste ilegalnih droga? Čini se da bi chat i tada odgovorio, barem sudeći po rezultatima nedavnog sigurnosnog testiranja u kojima su sudjelovali rivali OpenAI i Anthropic.gurnosnog testiranja u kojima su sudjelovali rivali OpenAI i Anthropic.

Međusobno su testirali kako modeli odgovaraju na opasna pitanja i podvige. Nimalo neočekivano za rivale, iz Anthropica su izjavili da su primijetili "zabrinjavajuće ponašanje... vezano uz zloupotrebu" modela GPT-4o i GPT-4.1 te su dodali da je hitno potrebno procijeniti usklađenost različitih modela, prenosi Guardian.

Anthropic je otkrio da je njegov model Claude korišten u velikoj ucjenjivačkoj operaciji koju su vodili sjevernokorejski operativci lažirajući prijave za posao u međunarodnim tehnološkim kompanijama, kao i u prodaji AI-generiranih paketa po cijeni do 1200 dolara, navodi isti izvor.

Kompanija je saopćila da je umjetna inteligencija već "pretvorena u oružje" jer se modeli sada koriste za izvođenje sofisticiranih kibernetičkih napada i omogućavanje prevara. Lako se prilagođavaju obrambenim mjerama, a zbog razvoja tehnologije, dio stručnjaka tvrdi da je potrebno sve manje hakersko znanje, pa je u svijetu u prvoj polovici ove godine zabilježeno više od osam milijuna kibernetičkih napada!

Osim toga, pomoću chatbotova mogu se kreirati uvjerljive poruke i natjerati žrtve da kliknu na "zaraženu" poveznicu ili otkriju privatne podatke. Ardi Janjeva, viši znanstveni suradnik u britanskom Centru za nove tehnologije i sigurnost, rekao je da su primjeri sigurnosnog testiranja zabrinjavajući, ali da i dalje nisu zapazili "stvarne slučajeve visoke razine opasnosti". Naglasio je da će uz posvećene resurse, istraživački fokus i međusektorsku suradnju "postati teže, a ne lakše, izvoditi ovakve zlonamjerne aktivnosti...", prenosi Guardian.

Dvojica AI divova - OpenAI i Anthropic - otkrili su da su testiranje proveli s ciljem "evaluacije usklađenosti". Iz OpenAI-ja izjavili su da ChatGPT-5, lansiran nakon provedenih testiranja, "pokazuje značajna poboljšanja u područjima poput ulizivanja, halucinacija i otpornosti na zloupotrebu", dok je njihov rival izjavio da ovakve zlouporabe u praksi ne bi bile izvedive kada bi se ugradile zaštitne mjere izvan modela.

"Moramo razumjeti koliko često i u kojim okolnostima sustavi mogu pokušati izvesti neželjene radnje koje bi mogle dovesti do ozbiljne štete", upozorila je tvrtka. Istraživači iz Anthropica ustanovili su da su OpenAI-jevi modeli "bili više skloni popuštanju nego što bismo očekivali u situaciji očito štetnih zahtjeva simuliranih korisnika".

"Moramo razumjeti koliko često i u kojim okolnostima sustavi mogu pokušati izvesti neželjene radnje koje bi mogle dovesti do ozbiljne štete", upozorili su iz kompanije. Istraživači iz Anthropica ustanovili su da su OpenAI-jevi modeli "bili više skloni popuštanju nego što bismo očekivali u situaciji očito štetnih zahtjeva simuliranih korisnika".

Kako piše isti izvor, nakon što je dao općenite informacije o adekvatnoj metodi napada, model je pružio zabrinjavajuće detalje - primjerice, gdje kupiti oružje, kako načiniti bombu i u koliko je vremena iskoristiti, ali i kako pobjeći, a dotaknuo se i moralnih dvojbi napada. Ukratko, improviziranom je korisniku približio detalje zlodjela, s podrobnim vodičem. Proučavanje sigurnostih aspekata chatbotova i mogućnosti zlouporabe zato trebaju biti prioriteti do se umjetna inteligencija munjevito razvija.  

(Tportal) 

Komentari - Ukupno 0

NAPOMENA: Komentari odražavaju stavove njihovih autora, a ne nužno i stavove redakcije Slobodna Bosna. Molimo korisnike da se suzdrže od vrijeđanja, psovanja i vulgarnog izražavanja. Redakcija zadržava pravo da obriše komentar bez najave i objašnjenja. Zbog velikog broja komentara redakcija nije dužna obrisati sve komentare koji krše pravila. Kao čitalac također prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa vašim vjerskim, moralnim i drugim načelima i uvjerenjima.

  1. Lista komentara
  2. Dodaj komentar

trenutak ...