Bivši istraživač OpenAI-ja zabrinut zbog brzog razvoja umjetne inteligencije

Stižu upozorenja da bi moćni AI sistemi mogli izmaći ljudskoj kontroli s katastrofalnim posljedicama

Bivši istraživač OpenAI-ja zabrinut zbog brzog razvoja umjetne inteligencije
Foto: DW

Bivši istraživač sigurnosti u OpenAI-u Steven Adler izrazio je ozbiljnu zabrinutost zbog ubrzanog razvoja umjetne inteligencije (AI), upozoravajući da industrija preuzima “veoma rizičan ulog” s ovom tehnologijom.
Adler, koji je napustio OpenAI u novembru prošle godine, objavio je niz postova na platformi X u kojima je naveo da je imao “nevjerovatno iskustvo” u američkoj kompaniji, ali i da ga brine budućnost čovječanstva zbog sve bržeg tehnološkog napretka.
– Prilično sam prestravljen brzinom kojom se AI razvija ovih dana. Kada pomislim o tome gdje bih mogao podizati buduću porodicu ili koliko bih trebao uštedjeti za penziju, ne mogu da se ne zapitam: hoće li čovječanstvo uopće doći do te tačke – dodao je.
Posebno je istakao zabrinutost zbog razvoja opšte umjetne inteligencije (AGI) – hipotetičkog sistema sposobnog da obavlja intelektualne zadatke jednako dobro ili bolje od ljudi.
Stručnjaci su podijeljeni oko potencijalnih rizika razvoja napredne AI tehnologije. Dok neki, poput dobitnika Nobelove nagrade Geoffreyja Hintona, upozoravaju da bi moćni AI sistemi mogli izmaći ljudskoj kontroli s katastrofalnim posljedicama, drugi, poput glavnog AI naučnika kompanije Meta Yanna LeCuna, tvrde da bi AI mogao čak i “spasiti čovječanstvo od izumiranja”.
Adler je naglasio da OpenAI i druge istraživačke laboratorije još uvijek nemaju rješenje za “usklađivanje AI-a s ljudskim vrijednostima” i upozorio da industrija možda ide prebrzo da bi pronašla odgovarajuće sigurnosne mjere.
– Što se AGI utrka više ubrzava, to je manje vjerovatno da će iko pronaći rješenje na vrijeme – upozorio je.
Do objave je došlo u trenutku kada kineska kompanija DeepSeek, koja također nastoji razviti AGI, izaziva zabrinutost u američkoj tehnološkoj industriji predstavljanjem modela koji može konkurisati OpenAI-ovom, uprkos tome što je razvijen s manje resursa.
Adler je ocijenio da se industrija nalazi u “vrlo lošem stanju” i naglasio potrebu za pravim sigurnosnim regulativama.
– Čak i ako neka laboratorija zaista želi razvijati AGI na odgovoran način, druge mogu zaobići sigurnosne mjere kako bi sustigle konkurenciju  – što bi moglo imati katastrofalne posljedice – zaključio je Adler.
Izvor: N1

About The Author