Avertismentul oamenilor de știință: Roboții învață să mintă tot mai bine!
Pot fi mai istețe decât oamenii la jocurile de societate, pot decoda structura proteinelor și pot purta o conversație acceptabilă, dar, pe măsură ce sistemele de Inteligență Artificială au devenit tot mai dezvoltate, a crescut și capacitatea lor de a înșela, avertizează oamenii de știință.
Într-o analiză realizată de cercetătorii de la Massachusetts Institute of Technology (MIT), au fost identificate numeroase cazuri în care sistemele de inteligență artificială își înșală adversarii, joacă la cacealma și se prefac că sunt oameni.
Unul dintre sisteme și-a modificat chiar și comportamentul în timpul simulărilor de teste de siguranță, ceea ce ridică perspectiva ca audiența să fie atrasă într-un fals sentiment de siguranță.
„Pericolele pentru societate vor deveni tot mai grave”
„Pe măsură ce capacitățile înșelătoare ale sistemelor de Inteligență Artificială devin tot mai avansate, pericolele pe care le reprezintă pentru societate vor deveni tot mai grave”, a declarat dr. Peter Park, cercetător în domeniul siguranței existențiale a inteligenței artificiale la MIT.
Park a fost îndemnat să investigheze după ce Meta, compania care deține Facebook, a dezvoltat un program numit Cicero, care s-a clasat în top 10% dintre jucătorii umani la jocul de strategie de cucerire a lumii Diplomacy.
Meta a declarat că Cicero a fost antrenat să fie „în mare parte onest și de ajutor” și să „nu-și înjunghie niciodată intenționat pe la spate” aliații umani, notează The Guardian.
„A fost un limbaj foarte prietenos, ceea ce a fost suspect pentru că înjunghierea pe la spate este unul dintre cele mai importante concepte din joc”, a spus Park.
Robotul, minciună către un utilizator uman: Sunt la telefon cu prietena”
Park și colegii săi au analizat datele accesibile pentru public și au identificat mai multe cazuri în care Cicero spunea minciuni premeditate, lucra pentru a atrage alți jucători în comploturi și, într-o situație, și-a justificat absența după ce a fost repornit spunându-i unui alt jucător: „Sunt la telefon cu prietena mea”.
„Am descoperit că AI-ul lui Meta a învățat să fie un maestru al înșelăciunii”, a declarat Park.
Echipa MIT a descoperit probleme comparabile cu alte sisteme, inclusiv un program de poker Texas care putea să blufeze împotriva jucătorilor umani profesioniști și un alt sistem pentru negocieri economice care își modifica preferințele pentru a obține un avantaj.
„Asta este foarte îngrijorător. Doar pentru că un sistem de inteligență artificială este considerat sigur în mediul de testare, nu înseamnă că este sigur în mediul natural. Ar putea doar să se prefacă a fi sigur în timpul testului”, a spus Park.
Analiza solicită guvernelor să elaboreze legi privind siguranța AI care să abordeze potențialul de înșelăciune al acestor sisteme. Printre riscurile generate de sistemele de inteligență artificială necinstite se numără frauda, manipularea alegerilor și „sandbagging” (subperformanța în mod intenționat), în cazul în care diferiți utilizatori primesc răspunsuri diferite.
În cele din urmă, dacă aceste sisteme își pot rafina capacitatea de înșelăciune, oamenii ar putea pierde controlul asupra lor, sugerează lucrarea.
Vă mai recomandăm să citiți și:
VIDEO: A fost creată palma robotică ce imită simțul tactil uman
Patru studenți au construit cel mai mic robot umanoid din lume, o reușită de Cartea Recordurilor
Un robot de la o fabrică Tesla a atacat un inginer și a lăsat în urmă „o dâră de sânge”
O companie chineză a construit „cel mai puternic robot umanoid de uz general din lume”