Vještačka inteligencija i budućnost novinarstva

AI će zasigurno promijeniti protok informacija kao i sam koncept novinarstva. Jedini odgovor na ove promjene može biti kvalitetnije, odgovornije i inovativnije novinarstvo

Vještačka inteligencija i budućnost novinarstva
Foto: Daily Star

 

Pojava GPT chata izazvala je burne reakcije širom svijeta od dobro i racionalno utemeljenih strahova do  pretjeranog entuzijazma tehnomagova i njegovih kreatora. Iako se nesumnjivo radi o velikoj promjeni tehnološke paradigme koja se poredi s otkrićem Gutenbergove štamparije ili parne mašine – mnogi ostaju skeptični kada su u pitanju etički i politički problemi koje ova tehnologija povlači sa sobom. Na udaru su se našla mnoga polja koja su do tada bila s pravom smatrana isključivim poljem ljudskog djelovanja i intelekta poput poezije, proze i slikarstva. Iako su neke od pjesama i slika koje je vještačka inteligencija kreirala bile umnogome impresivne na prvi pogled, većina ih je imala masu svojevrsnih vizuelnih grešaka (šest prstiju na rukama, neproporcionalno velike oči etc). Najveću kontroverzu izazvao je njemački umjetnik  Boris Eldagsen koji je osvojio nagradu Svjetske fotografske organizacije za fotografiju naziva „Električar“, koja prikazuje dvije žene. Eldagsen je priznao da je fotografiju stvorila vještačka inteligencija i da mu je namjera bila da naprosto otvori debatu o autorskim pravima i o tome šta uopšte znači autentičnost danas, no kakve će to implikacije imati na svijet novinarstva?

Jezički modeli

Da bi se adekvatno odgovorilo na ovo pitanje mora se prvo razumjeti tehnologija iza ovog procesa, dakle šta su takozvani jezički modeli. Najkraće rečeno, riječ je o programu koji je u stanju da prepozna i predvidi koje rečenice imaju najviše šanse da se pojave zajedno u nekom kontekstu. Rezultati su impresivni. Tako je ChatGPT pisao pjesme, izjave, poslovice – koje na prvu, istina, djeluju dosta klišeizirano, no ne i besmisleno. Ovo je sve pojačalo bojazan da će određeni poslovi vezani za novinarstvo, poput pisanja kolumni i lektorisanja nestati. Stručnjaci koji prate razvoj i interakciju AI tehnologije govore da nema bojazni za sada; ChatGPT može ubrzati sređivanje, sažeti određeni tekst, ali nije u stanju funkcionisati bez ljudskog inputa i nadzora. Jedan od centralnih problema odnosa ove nove tehnologije jeste da ona nema nikakva etička i moralna načela i principe, već samo izvršava zadato naređenje – input. Tako je u više eksperimenata sa AI-om u pisanju naučnih radova utvrđeno da on nije u stanju da pravilno citira i navede, a nekada bi izmišljao reference – citate ili brkao autore, tako bi sastavio više autora u jednom naučnom djelu koji nikada nisu objavljivali u tom žurnalu i zajedno, ali su se bavili sličnom naučnom oblasti.

Drugi problem koji se javlja u upotrebi AI-a u izradi vijesti ili tekstova jeste taj što ovi jezički modeli u toku takozvanog treninga nauče i pokupe mnoge ljudske predrasude. Jedan od najplastičnijih primjera jeste takozvani facial recognition bias – gdje je algoritam za prepoznavanje lica disproporcionalno pogrešno identifikovao Afroamerikance i ljude azijskog porijekla na sigurnosnim kamerama. Isti bias – predrasudu –algoritam stvara i prema  odabiru informacija od kojih nastoji sastaviti potencijalnu vijest. Kako se sve više ljudskih aktivnosti bude prepuštalo vještačkoj inteligenciji, to će neumitno otvoriti mnoge etičke dileme koje se tiču odgovornosti. Etičko djelovanje je isključivo ljudska aktivnost i neprimjenjivo je na kategorije koje to nisu. Tako je pojava vještačke inteligencije ponovo aktualizirala stari etički problem poznat pod svojim engleskim nazivom „Trolley problem“, koji je prvi u ovom obliku postavila britanska filozofkinja Philippa Foot (tzv. problem trolejbusa). Riječ je dakle o hipotetičkom problemu koji glasi: Osoba se nalazi u trolejbusu kojem su otkazale kočnice, a jedini ispravan mehanizam je onaj za skretanje. Na jednoj tračnici se nalazi jedan čovjek, a na drugoj petero ljudi. Osoba za mehanizmom ima mogućnost izbora, da skrene na tračnicu sa jednim čovjekom i tako spasi pet ljudi.

Dvije teorije

Postoje dvije osnovne etičke teorije koje se ovdje mogu primijeniti: deontološka i utilitarna. Po deontološkoj, moralni zakon je osnova djelovanja bez obzira na krajnji ishod ili posljedicu, dok utilitarna poučava da je najbolji etički izbor onaj koji ima najbolje posljedice za najveći broj ljudi. Većina ljudi u mnogobrojnim ispitivanjima  se odlučuje za utilitarni model koji djeluje ispravnije, no ujedno pokazuje i ograničenja ovako postavljenih teza u konkretnim slučajevima. Naprimjer,  da li bi žrtvovali pet komunalnih radnika da spasu vanserijskog naučnika – utilitaristički govoreći, ovo rješenje je validno, no duboko neetično, budući da ljudski život vrednujemo po određenim postignućima ili krajnjim svrhama. AI kao takav je vrlo teško programirati za konkretne etičke situacije, koje mogu imati nebrojeno mnogo varijabli. Neke zemlje su otišle i korak dalje u aplikaciji AI u ideološke svrhe. Tako je Kina stvorila prvog AI novinara – voditelja državne agencije Xinhua, koja je pod direktnom kontrolom KP Kine. Potom i Indija izbacuje svoju verziju pod nazivom „Pragati“. Komunistička partija Kine je čak i prije Zapada pokušala da shodno vlastitoj ideologiji napravi etički normativ o upotrebi AI-a, tako da se u prvom draftu dokumenta Državne agencije za cyber prostor govori kako vještačka inteligencija treba baštiniti glavne vrijednosti socijalizma, čuvati socijalni mir i red, kao i poštovati ustavni poredak.

Ovaj dokument, iako zvuči distopijski, samo reflektuje specifičan kineski cyber prostor (algoritmi već uspješno cenzurišu svaku kritiku KP-a, a zapadne platforme poput Facebooka,YouTubea i Gmaila su zabranjene). Kineske verzije ovih aplikacija, poput „Baidua“ i njegove verzije ChatGPT-ja pod nazivom „Ernie“, hvaljene su kao svojevrsni rival zapadnim kompanijama koje razvijaju istu tehnologiju, međutim ubrzo su se pojavili brojni problemi. Dok su milioni ljudi širom svijeta hranili  ChatGPT informacijama često besmislenim, pa i provokativnim pitanjima, što je pomoglo njegovom treniranju, tako nešto nije moguće u politički zatvorenom  online ekosistemu Kine: upite i informacije o Tiananmenu ili tretmanu ujgurskih muslimana u pokrajini Xinjang nije moguće pronaći. Tako se dolazi do paradoksa da upravo cenzura online prostora koju sprovodi kineska država čini da Kina u treniranju i usavršavanju AI-a zaostaje za Zapadom. AI će zasigurno promijeniti način na koji funkcioniše protok informacija, našu vezu sa realnošću kao i sam koncept novinarstva, ali jedini odgovor na ove promjene može biti kvalitetnije, odgovornije, inovativno novinarstvo.

About The Author