Čovjek kojeg mnogi nazivaju kumom umjetne inteligencije dao je otkaz i upozorio “na sve veće opasnosti od razvoja na polju AI-a”. Geoffrey Hinton (75) najavio je ostavku u Googleu u intervjuu za New York Times, rekavši da sada žali zbog svog rada.
Za BBC je rekao da su neke od opasnosti AI chatbota “prilično zastrašujuće”. “Trenutno nisu inteligentniji od nas, koliko ja vidim. Ali mislim da bi uskoro mogli biti”, rekao je. Pionirsko istraživanje dr. Hintona o dubokom učenju i neuronskim mrežama otvorilo je put za sadašnje AI sustave poput ChatGPT-a.
No, britansko-kanadski psiholog i informatičar rekao je za BBC da bi chatbot uskoro mogao prestići razinu informacija koju čuva ljudski mozak.
“Upravo sada vidimo da stvari poput GPT-4 zasjenjuju osobu u količini općeg znanja koje ima. U smislu rezoniranja, nije tako dobro, ali već jest u smislu jednostavnih obrazloženja. S obzirom na brzinu napretka, očekujemo da će prilično brzo postati sve bolji. Stoga moramo biti zabrinuti”, rekao je za BBC.
“Pogledajte kako je bilo prije pet godina, a kako je sada. Pogledajte koliki je to iskorak, a dalje ga širite. To je zastrašujuće”, istaknuo je.
Hinton je rekao da natjecanje između tehnoloških divova tjera tvrtke da proizvode nove AI tehnologije opasnim brzinama, ugrožavajući radna mjesta i šireći dezinformacije. “Teško je vidjeti kako možete spriječiti loše aktere da to iskoriste za loše stvari”, rekao je za Times.
“Scenarij iz noćne more”
U članku u New York Timesu Hinton je spominjao “loše ljude” koji bi pokušali koristiti AI za “loše stvari”. Kada ga je BBC upitao da to pojasni, odgovorio je: “Ovo je samo vrsta najgoreg mogućeg scenarija, vrsta scenarija iz noćne more. Možete zamisliti, na primjer, nekog poput ruskog predsjednika Vladimira Putina koji je odlučio dati robotima mogućnost stvaranja vlastitih pod-ciljeva.”
Znanstvenik je upozorio da bi to na kraju moglo “stvoriti podciljeve poput ‘Moram dobiti više snage'”. “Došao sam do zaključka da se vrsta inteligencije koju razvijamo jako razlikuje od inteligencije koju imamo. Mi smo biološki sustavi, a ovo su digitalni sustavi. A velika je razlika u tome što s digitalnim sustavima imate mnogo kopija istog modela svijeta”, rekao je.
“I sve te kopije mogu učiti zasebno, ali odmah dijele svoje znanje. Dakle, to je kao da imate 10.000 ljudi i kad god jedna osoba nešto nauči, svi to automatski znaju. I tako ti chatbotovi mogu znati mnogo više od bilo koje osobe”, zaključuje.
Radna mjesta i širenje dezinformacija
Iako se umjetna inteligencija koristi za podršku ljudskim radnicima, brzo širenje chatbota poput ChatGPT-a moglo bi ugroziti radna mjesta. AI “oduzima težak posao”, ali “može oduzeti više od toga”, rekao je za Times. Znanstvenik je upozorio na potencijalno širenje dezinformacija koje stvara AI, rekavši za Times da prosječna osoba “više neće moći znati što je istina”.
Hinton je također rekao da postoji nekoliko drugih razloga zbog kojih je dao otkaz. “Jedan je taj dan imam 75 godina. Dakle, vrijeme je za mirovinu. Drugi je – zapravo želim reći neke dobre stvari o Googleu. A one su vjerodostojnije ako ne radim za Google”, kaže.
Naglasio je da ne želi kritizirati Google te da je tehnološki div bio “vrlo odgovoran”.
Jeff Dean, vodeći znanstvenik za Google AI, zahvalio je Hintonu u izjavi američkim medijima. “Kao jedna od prvih tvrtki koja je objavila načela umjetne inteligencije, ostajemo predani odgovornom pristupu umjetnoj inteligenciji”, dodaje se u izjavi. “Neprekidno učimo suočavati se s novim rizicima, dok istodobno hrabro unapređujemo”, istaknuo je.
Poziv na stanku u razvoju AI-a
U ožujku su tehnološki milijarder Elon Musk i niz stručnjaka pozvali na stanku u razvoju AI sustava kako bi se omogućilo vrijeme u kojemu bi se provjerilo i uvjerilo jesu li sigurni.
Otvoreno pismo, koje je potpisalo više od 1000 ljudi, uključujući Muska i suosnivača Applea Stevea Wozniaka, potaknulo je izdavanje GPT-4, puno moćnije verzije tehnologije koju koristi ChatGPT. Hinton u to vrijeme nije potpisao to pismo, ali je za The New York Times rekao da znanstvenici ne bi trebali “povećati ovo dok ne shvate mogu li to kontrolirati”.
Fenix-magazin/IK/Hina