Ce s-a întâmplat atunci când o Inteligență Artificială a primit monolog interior?
Ce s-a întâmplat când a fost creat AI-ul cu monolog interior? Cercetătorii au fost cu adevărat surprinși!
Dacă îi dai unei Inteligențe Artificiale (AI) un monolog intern, pare că aceasta începe să se învețe singură să fie mai inteligentă, subliniază Futurism.
Într-un studiu încă neevaluat inter pares, cercetătorii de la Stanford (SUA) și un grup care se numește „Notbad AI” s-au unit pentru a crea un model AI care face o pauză pentru a „gândi” înainte de a genera răspunsuri, își arată munca și îi roagă pe utilizatori să-i spună care răspuns este cel mai corect.
Echipa din spatele Quiet Self-Taught Reasoner, Quiet-STaR pe scurt, și-a dorit ca modelul lor să nu fie capabil doar să se învețe singur să raționeze, lucru pe care l-au realizat în 2022 cu algoritmul original Self-Taught Reasoner, dar și să facă acest lucru „în liniște” înainte de a oferi răspunsuri la întrebări, astfel operând ca monologul intern al unei ființe umane care, ideal, funcționează înainte să vorbim.
Iată cum AI-ul cu monolog interior devine singur mai inteligent!
„În mod excitant, auto-învățarea raționamentului pe text web divers îmbunătățește în mod automat și alte forme de raționament!”, a spus entuziasmat Eric Zelikam, de la Stanford, despre noul model la a cărui producție a ajutat, într-o serie de postări pe platforma anterior numită Twitter.
Pentru a crea AI-ul cu monolog interior, echipa de cercetare a construit Quiet-STaR pe Mistral 7B, un model de limbaj larg (LLM) open-source care, conform comunității AI Hugging Face, este antrenat pe șapte miliarde de parametri și se spune că poate depăși cea mai recentă versiune a modelului Llama de la Meta.
Ce rezultate a produs noul algoritm?
Quiet-STaR a fost programat, practic, să-și arate munca atunci când oferă raționamente pentru rezultatele sale, iar utilizatorii modelului puteau apoi să selecteze care răspuns era cel mai precis. Această abordare, după cum notează studiul, a dus la un nivel de acuratețe al modelului de 47,2%, ceea ce nu este foarte impresionant, dar este o îmbunătățire față de 36,3%, cât a obținut fără antrenamentul adițional pentru raționament.
Deși modelul a avut în continuare rezultate extrem de slabe la matematică, răspunzând corect la doar 10,9% dintre întrebări, Quiet-STaR pre-antrenat a avut doar 5,9% răspunsuri corecte, ceea ce înseamnă că și-a dublat priceperea la matematică în timpul antrenamentului.
Niciunul dintre aceste rezultate nu impresionează în mod deosebit. Dar sunt intrigante pentru că, până acum, roboții de conversație precum ChatGPT, de la OpenAI, și Gemini, de la Google, au fost dezastruoși în ceea ce privește raționamentul de bun-simț. Quiet-STaR, propun cercetătorii în studiul lor, ar putea duce la progrese care „diminuează decalajul dintre capacitățile modelelor de limbaj și raționamentul asemănător omului”.
Vă recomandăm să citiți și:
Dublarea vitezei de procesare a computerelor, posibilă printr-o metodă inovatoare
Computerele obișnuite încă le pot întrece pe cele cuantice. Iată cum!