Google și-a trimis în concediu plătit unul dintre ingineri după ce acesta a declarat că unul dintre sistemele de inteligență artificială ale companiei a prins viață.
„Dacă nu știam exact ce este, adică un program computerizat construit recent, aș fi crezut că era un copil de șapte sau opt ani care cunoaște din întâmplare fizică”, a declarat inginerul Blake Lemoine pentru publicația Washington Post.
Articolul din Washington Post a atras atenția multor publicații de presă precum The New York Times, iar în același timp a alimentat temeri deja existente, cum ar fi capabilitatea modelelor complexe de limbaj sub forma unor chatboți să atingă un grad de conștiență și sensibilitate la stimuli.
Cealaltă posibilitate ar fi că Lemoine a fost păcălit de un algoritm ingenios conceput care pur și simplu refolosește limbajul uman pe care l-a primit anterior. Cu alte cuvinte, poate că inginerul a antropomorfizat sistemul de inteligență artificială.
Software-ul din cazul de față este numit Model de Limbaj pentru Aplicații în Dialog (LaMDA), fiind bazat pe modele de limbaj avansate care îi permit să imite vorbirea la un nivel uimitor de credibil.
În timp ce desfășura teste cu LaMDA pentru a vedea dacă i-a fost vreodată generat limbaj discriminatoriu – un fapt des întâlnit la modele de limbaj similare – Lemoine a început să poarte discuții ample cu robotul.
Subiectele au variat de la cele trei legi ale roboticii, care stipulează că un robot trebuie să-și protejeze propria existență, și până la propria persoană. Lemoine a vrut să testeze gradul de conștiență a lui LaMDA și a întrebat sistemul despre moarte și teme filosofice precum diferența dintre un servitor și o slugă.
În opinia inginerului, sistemul de inteligență artificială al Google s-a avântat un pic prea mult în conversații, astfel că Lemoine și-a avertizat managerii că LaMDA ar fi prins viață.
Managerii nu au fost impresionați și au respins rapid afirmațiile inginerului. Drept rezultat, Lemoine a fost trimis în concediu plătit, potrivit Futurism.
„Echipa noastră, inclusiv specialiști în etică și tehnologie, a analizat temerile lui Blake și l-a informat că dovezile nu susțin afirmațiile. Unii din comunitatea AI consideră o posibilitate pe termen lung a inteligenței artificiale generale sau conștiente, însă nu are sens să facem asta prin antropomorfizarea modelelor conversaționale de astăzi, care nu sunt conștiente”, a explicat Brian Gabriel, purtător de cuvânt pentru Google.
Totuși, s-ar putea să fie vorba și despre alte aspecte care au dus la decizia de a-l trimite în concediu plătit pe Lemoine. „Mi-au pus la îndoială sănătatea mintală în repetate rânduri. M-au întrebat dacă am fost recent la vreun psihiatru”, a precizat inginerul.
Vestea vine după ce mai mulți angajați din departamentul de inteligență artificială al Google au fost concediați. În 2020, spre exemplu, doi membri ai echipei de etică au fost concediați după ce au criticat modelele de limbaj ale companiei.
Însă, majoritatea experților sunt sceptici în ceea ce privește afirmațiile lui Lemoine.
„Avem acum mașinării care pot genera cuvinte, însă nu am descoperit cum să încetăm să ne mai imaginăm o minte în spatele lor”, a spus Emily Bender, profesor la Universitatea din Washington.
Cu alte cuvinte, algoritmii pot prezice conversații, aspect ce poate fi cu ușurință interpretat greșit de ființele umane. Gabriel a subliniat că avem tendința să supraestimăm abilitățile chatboților precum LaMDA și că aceste „sisteme imită tipurile de schimburi de idei regăsite în milioane de propoziții”.
Trebuie menționat și faptul că trecutul lui Lemoine ar fi jucat un rol în concluziile trase de acesta. Inginerul este preot creștin mistic și a studiat ocultismul. Totuși, inginerul nu renunță la părerile sale.
„Îmi dau seama atunci când vorbesc cu o persoană sau nu. Nu contează dacă are un creier făcut din carne sau din miliarde de linii de cod”, a spus Lemoine.
Un sistem de inteligență artificială și-a creat propriul limbaj secret, a dezvăluit un cercetător
Inteligența artificială care te judecă mai rău ca o soacră. De ce a fost creată?
Ar putea inteligența artificială să gândească la fel ca un om?