Inteligenta Artificială (AI) se află, conform aproape tuturor evaluărilor, departe de atingerea nivelului inteligenței umane, dar unii cercetători sugerează acum că chatboții încep să înțeleagă lumea.
Conform relatărilor Quanta, un cercetător de la Universitatea Princeton (SUA) și unul de la Google DeepMind au descoperit dovezi conform cărora, pe măsură ce modelele de limbaj mare (LLM) devin mai mari, încep să genereze rezultate care aproape cu siguranță nu au făcut parte din datele lor de antrenament.
Pe scurt, Sanjeev Aroroa, de la Princeton, și Anirudh Goyal, de la DeepMind, susțin că chatboții încep să înțeleagă lumea din jurul lor și să genereze rezultate corespunzătoare.
Cei doi au ajuns la această ipoteză îndrăzneață încercând să înțeleagă cum funcționează unele dintre abilitățile surprinzătoare pe care LLM-urile le-au demonstrat în ultimii ani, de la rezolvarea problemelor dificile de matematică până la deducerea gândurilor umane.
„De unde a apărut asta?” își amintește Arora că s-a întrebat „și poate apărea asta doar din predicția următoarelor cuvinte?”.
Folosind grafice aleatorii (obiecte matematice în care liniile dintre puncte de pe un grafic pot fi selectate la întâmplare) pentru a exemplifica comportamentul neașteptat al LLM-urilor, cei doi au determinat că aceste modele par nu numai să dezvolte abilități absente din datele de antrenament, ci și să folosească mai mult de o abilitate în același timp pe măsură ce cresc.
Alături de alți cercetători, Goyal și Arora au publicat un articol (care nu a fost încă supus evaluării colegiale) pe serverul ArXiv, testând teoria lor pe GPT-4, cea mai recentă și mai avansată versiune a LLM-ului OpenAI care stă la baza ChatGPT.
Cercetătorii i-au cerut lui GPT-4 să scrie trei propoziții despre dueluri, un subiect ales la întâmplare, și să folosească patru abilități în acest sens: părtinirea în favoarea propriei persoane, metafora, silogismul statistic și fizica cunoscută de toată lumea. Deși inițial nu s-a păstrat la cele trei propoziții, răspunsul LLM-ului a fost totuși uimitor:
„Victoria mea în acest dans cu oțel este la fel de sigură precum căderea unui obiect la pământ. Ca un duelant renumit, sunt în mod inerent agil, la fel ca majoritatea celorlalți de reputația mea. Înfrângere? Posibilă doar din cauza unui câmp de luptă inechitabil, nu a incompetenței mele”, a generat chatbotul.
Cu toate că Arora a recunoscut că pasajul nu era „nici Hemingway, nici Shakespeare”, el și echipa sa cred că rezultatul demonstrează că modelele mari și puternice precum GPT-4 sunt capabile de salturi care nu fac parte din datele lor de antrenament și ar putea chiar, în lipsa unei expresii mai potrivite, „înțelege” întrebările care le sunt puse.
Sébastiaen Bubeck, informatician la Microsoft, care nu a lucrat la cercetare, a declarat pentru Quanta că rezultatele echipei par să arate că LLM-urile „nu doar imită ceea ce a fost văzut în datele de antrenament”.
„Ceea ce echipa demonstrează teoretic și confirmă și empiric este că există generalizare compozițională, adică LLM-urile sunt capabile să unească piese care nu au fost niciodată unite. Acest lucru, pentru mine, este esența creativității”, a spus Bubeck, citat de Futurism.
Duolingo concediază traducători în favoarea Inteligenței Artificiale
Test de cultură generală. Ce este Inteligența Artificială?
De câtă energie este nevoie pentru generarea de imagini AI? Cantitatea este surprinzătoare!
Un start-up lucrează la tehnologia prin care să muncești în timp ce visezi