Un nou studiu sugerează că modelele avansate de Inteligență Artificială (AI) sunt destul de bune la a părea mai puțin inteligente decât sunt în realitate, ceea ce ar putea avea repercusiuni masive pe măsură ce continuă să devină mai inteligente. Ce consecințe are faptul că AI-ul poate face pe prostul?
Cercetătorii de la Universitatea Humboldt (Germania) au descoperit că, atunci când au testat un model mare de limbaj (LLM) pe criteriile cunoscute sub denumirea de „teoria minții”, au constatat că Inteligența Artificială nu numai că poate imita etapele de învățare a limbajului manifestate de copii, dar pare să exprime și ceva similar capacităților mintale legate de acele etape.
Studiul a fost publicat în jurnalul PLOS One.
Într-un interviu pentru PsyPost, Anna Maklová, asistentă de cercetare la Universitatea Humboldt și autoare principală a studiului, care este și expertă în psiholingvistică, a explicat modul în care domeniul său de studiu se leagă de această descoperire fascinantă.
„Datorită psiholingvisticii, avem o înțelegere relativ cuprinzătoare a ceea ce sunt capabili să facă copiii la diverse vârste. În special, teoria minții are un rol semnificativ, deoarece explorează lumea interioară a copilului și nu poate fi emulată ușor prin observarea unor modele statistice simple”, a declarat Marklová.
Având în vedere teoria minții orientată către copii ca fundal, cercetătoarea și colegii săi de la Universitatea Charles (Republica Cehă) au încercat să determine dacă LLM-urile precum GPT-4 de la OpenAI „pot pretinde că sunt mai puțin capabile decât sunt în realitate”.
Pentru a descoperi dacă AI-ul poate face pe prostul, echipa de cercetare în mare parte cehă le-a dat modelelor sarcina să acționeze ca un copil între vârstele progresive de la unu la șase ani atunci când răspund. Supuse unui set de mai mult de 1.000 de încercări și teste cognitive, acești „copii simulați” păreau să avanseze într-o manieră similară copiilor de acele vârste și, în final, au demonstrat că modelele pot pretinde că sunt mai puțin inteligente decât sunt în realitate.
„Modelele mari de limbaj sunt capabile să pretindă că au o inteligență mai mică decât dețin de fapt”, a concluzionat Marklová.
După cum avertizează studiul, antropomorfizarea Inteligenței Artificiale, deși poate fi „o scurtătură utilă” pentru a înțelege aceste modele în termeni umani, în general nu este de ajutor. În schimb, oamenii de știință propun o nouă teorie a minții care schimbă paradigma de la dacă modelele sunt „bune” sau „rele” și „utile” sau „nepotrivite” la cât de bine pot „construi personaje”, precum cele asemănătoare copiilor din aceste experimente.
În cele din urmă, după cum a spus Maklová, aceste descoperiri ar putea contribui la dezvoltarea SuperInteligenței Artificiale (ASI), următorul pas după Inteligența Artificială Generală de nivel uman (AGI), și ar putea ajuta la crearea unei ASI mai sigure odată ce o vom avea.
„În dezvoltarea ASI, trebuie să fim precauți și să nu-i cerem să emuleze o inteligență umană, și prin urmare limitată. În plus, sugerează că putem subestima capacitățile lor pentru o perioadă extinsă, ceea ce nu este o situație sigură”, a declarat cercetătoarea, citată de Futurism.
Dublarea vitezei de procesare a computerelor, posibilă printr-o metodă inovatoare
Computerele obișnuite încă le pot întrece pe cele cuantice. Iată cum!