Džefris Hintonas, kurio darbai sudaro visų šiuolaikinių dirbtinio intelekto sistemų pagrindą, šią savaitę kalbėjo JT Socialinės plėtros tyrimų instituto konferencijoje „Digital World". Jo pranešimas nebuvo akademinis. Hintonas perspėjo: AI technologijų vystymosi tempas jau viršija visuomenės gebėjimą jas valdyti.
Kas yra Džefris Hintonas
Hintonui šiandien 78 metai. Daugiau nei keturis dešimtmečius jis tyrinėjo neuroninius tinklus tada, kai mokslo bendruomenė šios srities ne vengė, o tiesiog ignoravo. Kartu su Jošua Bendžio jis 2012 metais pademonstruoja modelį «AlexNet», kuris per vienerius metus pakeitė visą kompiuterinės regos sritį. Taip prasidėjo tai, ką dabar vadiname giliosiomis neuroninėmis sistemomis.
2023 metų gegužę Hintonas paliko «Google», kur dirbo daugiau nei dešimt metų. Oficiali priežastis buvo noras kalbėti laisviau: «Google» pozicija dėl AI rizikų ir jo paties vertinimas skyrėsi per daug, paaiškino jis interviu laikraščiui «The New York Times». Po išėjimo Hintonas aktyviai perspėja apie rizikas, ypač apie tai, kad AI sistemos gali pradėti kurti savo tikslus, nesutampančius su žmonių interesais.
Ką jis sakė JT
JT konferencijoje Hintonas sutelkė dėmesį ne į mokslinę teoriją, o į politinę realybę. Jo teigimu, AI galingėja greičiau, nei kyla gebėjimas jį reguliuoti. Dabartinės tarptautinės institucijos — JT, G7, nacionaliniai parlamentai — veikia pagal dešimtmečiais suformuotus procesus. Šių procesų greitis nesuderinamas su tuo, kaip vystosi AI modeliai.
Jis atkreipė dėmesį ir į konkrečią techninę problemą: kol kas nei viena šalis ar kompanija tiksliai nežino, kaip stambiausi AI modeliai priima sprendimus iš vidaus. Sistemos kaip GPT-5 ar Claude yra techniškai neaiškintinos. Tai patvirtina patys modelių kūrėjai, ir tai yra didžiausia kliūtis kuriant bet kokią prasmingą saugumo politiką.
Kodėl tai svarbu dabar
Balandžio mėnesį «OpenAI» išleido GPT-5.5. «Anthropic» pristatė galingiausią savo modelį, kurį atsisakė viešai publikuoti dėl saugumo rizikų. «DeepSeek» Kinijoje parodė, kad šimtų milijardų dolerių investicijos nebėra būtina sąlyga sukurti pasaulinio lygio modelį. Tuo pačiu metu dauguma valstybių dar tik baigia rengti pirmuosius AI reguliavimo dokumentus.
Hintonas nesako, kad reikia stabdyti tyrimus. Jo pozicija konkretesnė: prieš išleidžiant naują modelių kartą, būtina sukurti veiksmingus saugumo patikrinimo mechanizmus. Šiandien tokių standartų nėra nei JT lygmeniu, nei tarp didžiųjų technologijų kompanijų. Kol jų nėra, kiekvienas naujas modelis yra eksperimentas be aiškių saugumo garantijų.
Šaltiniai: UN News · Nobel Prize.org