Ideologija koja oblikuje raspravu o umjetnoj inteligenciji

Pokreti povezani s ideologijom poput transhumanizma i učinkovitog altruizma imaju veliki uticaj na univerzitetima od Oxforda do Stanforda

Ideologija koja oblikuje raspravu o umjetnoj inteligenciji
Foto: Daily Star

Omiljena filozofija Silicijske doline, dugoročni pristup, pomogla je da se formira filozofska rasprava o umjetnoj inteligenciji u kontekstu ideje izumiranja ljudi.

No sve glasniji kritičari upozoravaju da je takva filozofija opasna, a opsjednutost izumiranjem odvraća pažnju od stvarnih problema povezanih s umjetnom inteligencijom poput krađe podataka i pristranih algoritama.

Autor Emile Torres, bivši dugogodišnji kritičar pokreta, rekao je za AFP da filozofija počiva na principima koji su se u prošlosti koristili za opravdavanje masovnih ubistava i genocida.

Ipak, pokret i povezane ideologije poput transhumanizma i učinkovitog altruizma imaju veliki uticaj na univerzitetima od Oxforda do Stanforda i u cijelom tehnološkom sektoru.

Investitori rizičnog kapitala poput Petera Thiela i Marca Andreessena ulagali su u kompanije koje se bave pronalaskom načina produžavanja životnog vijeka i druge projekte za kućne ljubimce povezane s pokretom.

Elon Musk i Sam Altman iz OpenAI-ja potpisali su otvorena pisma u kojima upozoravaju da bi umjetna inteligencija mogla dovesti do izumiranja čovječanstva – iako od nje imaju koristi tvrdeći da nas samo njihovi proizvodi mogu spasiti.

U konačnici, kritičari kažu da ovaj marginalni pokret ima previše uticaja na javne rasprave o budućnosti čovječanstva.

Oni koji razmišljaju dalje, vjeruju da smo dužni pokušati proizvesti najbolje rezultate za najveći broj ljudi imajući na umu mnogo duži vremenski okvir. Gledaju u daleku budućnost i vide trilijune i trilijune ljudi kako lebde svemirom, kolonizirajući nove svjetove.

Ovakvo razmišljanje čini ideologiju “stvarno opasnom”, rekao je Torres, autor knjige “Izumiranje ljudi: Historija nauke i etike uništenja”.

– Svaki put kad imate utopijsku viziju budućnosti i to kombinirate s nekom vrstom utilitarnog načina moralnog razmišljanja gdje ciljevi mogu opravdati sredstva, to će biti opasno – smatra Torres.

Ako bi superinteligentna mašina mogla imati potencijal da uništi čovječanstvo, dugoročno posmatrači bi se tome suprotstavili bez obzira na posljedice.

Kada je jedan korisnik Twittera, platforme sada poznate kao X, upitao koliko bi ljudi moglo umrijeti da se to ne dogodi, dugoročni ideolog Eliezer Yudkowsky odgovorio je da samo treba biti dovoljno ljudi “kako bi se formirala održiva reproduktivna populacija”.

Unatoč ovim problemima, Torres i mnogi drugi pokušavaju vratiti fokus na štete poput krađe umjetničkih radova, pristranosti i koncentracije bogatstva u rukama nekoliko korporacija.

Torres kaže da je, iako je bilo istinskih vjernika poput Yudkowskyja, velik dio rasprave oko izumiranja bio motiviran profitom jer govoriti o izumiranju ljudi, o istinskom apokaliptičnom događaju u kojem svi umiru, puno je senzacionalnije i zadivljujuće od toga da su kenijski radnici plaćeni 1,32 dolara po satu ili da se umjetnici i pisci iskorištavaju.

Izvor: AFP

About The Author