Mladen Mikijelj

Naučnici otkrili: AI se pretvara da je gluplji nego što zaista jeste

0

Ovi nalazi bi mogli da pomognu u razvoju vještačke superinteligencije (ASI), narednog koraka nakon opšte vještačke inteligencije (AGI) na nivou čovjeka, kao i da pomognu da AI bude bezbjedniji kada to učinimo.

Nova studija sugeriše da su napredni modeli vještačke inteligencije prilično dobri u to me da se ponašaju gluplje nego što zaista jesu. Objavljeno u časopisu PLOS One, istraživači sa berlinskog Humbolt univerziteta otkrili su da su prilikom testiranja velikog jezičkog modela (LLM), na osnovu takozvanih kriterijuma „teorije uma“, otkrili da ne samo da vještačka inteligencija može da oponaša faze učenja jezika prikazane kod djece, a dodatno i izražava nešto slično mentalnim sposobnostima u vezi sa tim fazama.

U intervjuu za PsyPost, istraživačka asistentkinja Univerziteta Humboldt i glavna autorka studije Ana Marklova, koja je takođe stručnjak za psiholingvistiku, objasnila je kako je njeno polje studija povezano sa fascinantnim otkrićem. „Zahvaljujući psiholingvistici, imamo relativno sveobuhvatno razumijevanje za šta su djeca sposobna u različitim uzrastima“, rekla je Marklova agenciji. „Naročito, teorija uma igra značajnu ulogu, jer istražuje unutrašnji svijet djeteta i nije je lako oponašati posmatranjem jednostavnih statističkih obrazaca“.

Sa ovom teorijom u pozadini, istraživačica i njene kolege sa Karlovog univerziteta u Pragu pokušali su da utvrde da li LLM-ovi poput OpenAI GPT-4 „mogu da se pretvaraju da su manje sposobni nego što zaista jesu“. Da bi to shvatio, istraživački tim je dao instrukcije modelima da se ponašaju kao djeca u progresivnom uzrastu od jedne do šest godina kada daju odgovore. Kada su ubačeni u niz od više od 1.000 ispitivanja i kognitivnih testova, izgledalo je da ove „simulirane dječije ličnosti“ zaista napreduju isto kao i djeca tog uzrasta — i, na kraju, pokazali su da modeli mogu da se pretvaraju da su manje inteligentni nego što stvarno jesu.

„Veliki jezički modeli sposobni su da glume nižu inteligenciju od one koju posjeduju“, zaključila je Marklova.

Ovi nalazi bi mogli da pomognu u razvoju vještačke superinteligencije (ASI), narednog koraka nakon opšte vještačke inteligencije (AGI) na nivou čovjeka, kao i da pomognu da AI bude bezbjedniji kada to učinimo.

„U razvoju ASI, moramo biti oprezni da ne zahtijevamo da oni oponašaju ljudsku, a samim tim i ograničenu inteligenciju“, rekla je ona u intervjuu. „Pored toga, to sugeriše da možemo potcijeniti njihove sposobnosti u dužem periodu, što nije bezbijedna situacija“.

(Dan)

Ostavite Komentar

Your email address will not be published.