Advokat u slučaju Steven A. Schwartz zastupa osobu koja tuži Avianca Airlines nakon što su mu kolica za posluživanje navodno udarila u koljeno 2019. godine, podnio je podnesak saveznom sudu u kojem se navodi najmanje šest slučajeva koji ne postoje.
Nažalost, advokat je koristio AI chatbot ChatGPT, koji je potpuno izmislio slučajeve. Schwartz je rekao da nikada prije nije koristio ChatGPT i da nije imao pojma da će samo izmišljati slučajeve.
Schwartz je rekao da je čak pitao ChatGPT jesu li slučajevi stvarni. Chatbot je insistirao da jesu. No tek nakon što su advokati avio kompanije u novom podnesku istaknuli da slučajevi ne postoje, Schwartz je otkrio svoju grešku. Ili je u pitanju greška računara, zavisno od toga kako na to gledate.
ChatGPT je pokrenut krajem 2022. godine i odmah je postao hit. Chatbot je dio porodica novih tehnologija nazvanih generativa umjetna inteligencija koji mogu satima održavati razgovore s korisnicima.
Razgovori su toliko normalni da se ponekad čini da ChatGPT ima vlastiti um. Ali tehnologija je notorno netačna i često će samo izmišljati činjenice i izvore za činjenice koje su potpuno lažne. Googleov konkurentski proizvod Bard ima slične probleme.
No nijedan od tih problema nije spriječio ljude da koriste ovu eksperimentalnu tehnologiju kao da je to pouzdan izvor informacija. Postoje brojni izvještaji o djeci koja su natjerala ChatGPT da im piše radove, a isto toliko izvještaja o učiteljima koji misle da mogu jednostavno pitati ChatGPT je li korišten rad.
OpenAI, kompanija koja stoji iza ChatGPT-a, nudi uslugu koja pokušava otkriti kada je korišten AI chatbot, ali taj detektor navodno ima samo 20 posto tačnosti. No ako samo dodate ChatGPT nasumične odlomke, AI vam ne može reći je li ih napisala.
Chatbotovi poput ChatGPT-a kontroverzni su iz više razloga, uključujući činjenicu da se neki stručnjaci brinu da bi umjetna inteligencija mogla izmaknuti kontroli. Neki ljudi čak vjeruju da bi umjetna inteligencija mogla početi imati vlastitu volju, što bi pokrenulo neku vrstu scenarija poput Terminatora u kojem je čovječanstvo potpuno uništeno.
Milijarder Elon Musk nagovijestio je takvu mogućnost kada je pozvao na šestomjesečnu pauzu u razvoju umjetne inteligencije – pauza koja je vjerovatno više povezana s činjenicom da se utrkivao da izgradi vlastitog ChatGPT konkurenta. Musk je bio jedan od izvornih suosnivača OpenAI-ja još 2015. godine prije nego što je izbačen nakon što je pokušao preuzeti kontrolu nad kompanijom 2018. godine.
Međutim, još nismo blizu mašinama koje će se pobuniti protiv cjelokupnog organskog života. Chatbotovi poput ChatGPT-a u biti su samo napredniji oblici prediktivnog teksta. Oni rade tako da nevjerovatnom brzinom pokušavaju pogoditi što bi trebao reći, a ta brzina često uzrokuje da izbaci mnogo netačnih informacija.
Umjesto da jednostavno kaže “ne znam”, tehničar će izmisliti dugačak popis izvora koji zapravo ne postoje, a ako pitate ChatGPT jesu li izvori stvarni, uvjerit će vas da jesu.
Ljudi su razmaženi Googleom, tražilicom koja će, iako nesavršena, pokušati iznijeti najtačnije informacije. Wikipedia, za koju je postojao skepticizam kada je prvi put pokrenuta, općenito je pouzdan izvor informacija jer je stalno pod nadzorom vojske stručnjaka kojima je stalo da stvari budu ispravne.
ChatGPT nije briga da li su informacije koje izbacuje tačne. To je čarobni trik i ljudi koji inače smatraju da su mainstream servisi poput Googlea i Wikipedije tačni čeka buđenje. Novu generaciju tehničkih alata nije briga za istinu. Dizajnirani su da zvuče impresivno, a ne da budu tačni. Korisnici interneta nastavit će učiti tu tešku lekciju dok se AI ugrađuje u brojne tehnologije koje koristimo svaki dan.
Opasnost od umjetne inteligencije možda nije u tehnologiji koja razvija vlastitu volju. Prava je opasnost, čini se, da će ljudi jednostavno povjerovati u sve što mašine kažu, bez obzira koliko pogrešno. ChatGPT ne zna da vam govori netačne informacije. Dakle, na nama je da provjerimo činjenice i brinemo se da stvari ispravimo.
Izvor: Forbes