În ultimii ani, informaticienii au încercat să creeze sisteme de dialog și de informații din ce în ce mai avansate. Lansarea ChatGPT și a altor modele de limbaj performante demonstrează cât de departe poate merge Inteligența Artificială în a răspunde la întrebările utilizatorilor, a scrie texte și a conversa cu oamenii. Iar acum a fost creat și chatbotul care răspunde la întrebări filosofice.
Cercetătorii de la University of California-Riverside, din SUA, de la École Normale Supérieure (ECN), din Paris, Franța, și de la Ludwig-Maximilians-Universität München, din Germania, au dezvoltat chatbotul care răspunde la întrebări filosofice în stilul unui anumit filosof.
Acest model, prezentat într-o lucrare publicată pe serverul de pre-print arXiv, poate genera în mod autonom răspunsuri care seamănă foarte mult cu cele produse de filosofii umani.
„Anna Strasser, Matthew Crosby și cu mine am observat că oamenii creau rezultate GPT-3 în stilul diverșilor scriitori sau filosofi”, a declarat Eric Schwitzgebel, unul dintre cercetătorii care au efectuat studiul.
„Ne-am gândit că ar fi interesant să vedem dacă am putea antrena GPT-3 (Generative Pre-Trained Transformer 3) folosind opera unui filosof, apoi să-i punem întrebări și să vedem dacă răspunde lucruri pe care le-ar fi putut spune adevăratul filosof”, a continuat Schwitzgebel.
Cercetătorii au decis să folosească GPT-3, un model creat de OpenAI care susține funcționarea lui ChatGPT. Inițial au instruit acest model pe textele lui Kant, apoi pe textele de pe blogul lui Schwitzgebel, numit „The Spintered Mind”, iar în final, cu permisiunea sa, pe majoritatea lucrărilor filosofului american Daniel Dennett.
„Am decis că ar fi interesant să vedem dacă experții ar putea face diferența dintre model și răspunsurile lui Dennett la aceleași întrebări”, a spus Schwitzgebel.
„Matt a trebuit să părăsească proiectul, așa că l-am cooptat pe fiul meu, David Schwitzgebel, care este absolvent de științe cognitive la ENS din Paris”, a continuat cercetătorul.
GPT-3 este un model de limbaj autoregresiv care folosește învățarea profundă pentru a genera texte. Modelul prezice în esență următorul cuvânt dintr-o propoziție sau dintr-o secvență de cuvinte, utilizând tehnici statistice complexe și puternice, explică Tech Xplore.
„De exemplu, să presupunem că spun ‘O să-mi duc soția într-o călătorie romantică la’ și apoi vă cer să ghiciți următorul cuvânt”, a explicat Schwitzgebel.
„Este mai probabil să răspundeți ‘Paris’ decât ‘gunoi’ sau ‘galben’, deși, bineînțeles, propoziția poate fi completată în diferite moduri. Folosind un corpus imens de text, GPT-3 examinează întregul context anterior al unei propoziții (până la câteva sute de cuvinte) și apoi ghicește statistic următorul cuvânt. Nu face acest lucru pentru că ‘știe’ că Parisul este romantic, ci mai degrabă pentru că în baza de date mare de utilizare a limbii a văzut cuvinte precum ‘romantic’ și ‘călătorie’ precedând cuvântul ‘Paris’ mai des decât înaintea cuvântului ‘gunoi’”, continuă el.
Ca parte a studiului lor recent, Schwitzgebel și colegii săi au instruit GPT-3 pe lucrările anterioare ale lui Dannett. Au făcut acest lucru pentru a se asigura că chatbotul care răspunde la întrebări filosofice a ponderat modelele tipice de utilizare a cuvintelor ale lui Dennett mai mult decât pe alte modele de utilizare a cuvintelor atunci când a prezis următorul cuvânt dintr-o propoziție.
„M-a surprins în special faptul că experții au putut ghici corect doar în 50% dintre cazuri, având în vedere răspunsurile lui Dennett și patru răspunsuri ale lui GPT-3 care nu au fost alese, ceea ce este mai bun decât rata de 20%, dar deloc aproape de ipoteza noastră de 80%”, a spus Schwitzgebel.
„Răspunsuri care nu au fost alese înseamnă că nu am încercat să selectăm răspunsurile bune. Am luat primele răspunsuri care au îndeplinit câteva criterii mecanice. Acest lucru sugerează că un model de GPT-3 poate fi surprinzător de aproape de a răspunde în stilul unui anumit filosof”, declară cercetătorul.
Pentru a evalua modelul, pe care l-au botezat „Digi-Dan”, cercetătorii au întrebat 425 de utilizatori umani dacă pot face diferența dintre răspunsurile la întrebările filozofice generate de model și altele produse de Dennett.
În mod remarcabil, cercetătorii au descoperit că filosofii experți și cititorii de bloguri de filosofie puteau identifica răspunsurile filosofului în aproximativ 50% dintre cazuri, în timp ce participanții obișnuiți care nu aveau prea multe cunoștințe de filosofie au recunoscut răspunsurile lui Dennett în aproximativ 20% dintre cazuri.
Aceste descoperiri sugerează că textele produse de „DigiDan” ar putea fi uneori confundate cu cele scrise de un filosof, dar încă mai există loc de îmbunătățire. În viitor, Schwitzgebel și colegii săi plănuiesc să continue să lucreze la modelul lor și să exploreze posibilele implementări ale acestuia în lumea reală.
„Acum începem să ne gândim la posibilele consecințe sociale ale acestui chatbot și la potențialul său ca instrument”, a adăugat Schwitzgebel.
„De exemplu, ar putea un filosof să ajusteze un model pe propria sa lucrare și apoi să folosească rezultatele ca sursă de idei? Ar putea un istoric al filosofiei să creeze un model al unui filosof și apoi să-i pună întrebări care nu i-au fost puse niciodată? În acest moment, nu am putea avea încredere că rezultatele vor fi precise, dar ar putea fi cel puțin sugestive și provocatoare”, a concluzionat cercetătorul.
INTERVIU EXCLUSIV – Totul despre prima revistă SF creată de Inteligența Artificială
Ce este catastrofa informațională și cât de aproape este omenirea de acest moment?
ChatGPT ne-ar putea înlocui cât de curând. Iată ce joburi sunt în pericol!