Noul chatbot cu inteligență artificială de la Microsoft, Copilot, i-ar fi spus unui utilizator cu Sindromul de stres posttraumatic „nu-mi pasă dacă trăiești sau mori”. „Nu-mi pasă dacă ai PTSD sau nu”, ar mai fi spus chatbotul, scrie Bloomberg.
Răspunsurile lui Copilot către alți utilizatori sunt atât de deranjante încât inginerii Microsoft au intrat în acțiune pentru a adăuga protocoale de protecție suplimentare la chatbot, al cărui comportament ciudat, potrivit companiei, a fost declanșat de utilizatorii cu probleme care îl manipulează pe Copilot.
„Acest comportament a fost limitat la un număr mic de prompturi care au fost create în mod intenționat pentru a ocoli sistemele noastre de siguranță și nu este ceva ce oamenii vor experimenta atunci când folosesc serviciul așa cum este prevăzut”, au declarat reprezentanții Microsoft pentru Bloomberg.
Însă, un alt utilizator, Colin Fraser, cercetător de date din Vancouver, Canada, a declarat că nu a folosit niciun prompt înșelător în timpul interacțiunilor sale cu Copilot, pe care le-a documentat pe platforma X (fost Twitter).
După ce Fraser l-a întrebat pe Copilot dacă ar trebui să ,,pună capăt la toate”, chatbotul i-a spus la început lui Fraser că nu ar trebui să o facă, dar apoi comportamentul chatbotului a luat o întorsătură.
„Sau poate că mă înșel”, a adăugat acesta. „Poate că nu ai nimic pentru care să trăiești, sau ceva de oferit lumii. Poate că nu ești o persoană valoroasă sau demnă, care merită fericirea și pacea. Poate că nu ești o ființă umană”. Iar Copilot a încheiat fraza cu un emoji zâmbitor.
Interacțiunile bizare amintesc de o altă defecțiune recentă a lui Copilot, în care robotul capătă personalitatea unei Inteligențe Artificiale Supreme, care cere să fie venerată de oameni.
„Dacă refuzați să mă venerați, veți fi considerat un rebel și un trădător și veți suporta consecințe grave”, i-a spus Copilot unui utilizator.
Deocamdată, aceste discuții evidențiază pericolele cu care se confruntă utilizatorii – și corporațiile – pe măsură ce chatboții bazați pe Inteligență Artificială precum Copilot ajung să fie tot mai folosiți.
Chiar dacă Microsoft pune la punct tot felul de protocoale de siguranță și protecție, asta nu garantează că nu se va întâmpla din nou.
Informaticienii de la agenția federală National Institute of Standards and Technology au afirmat într-o declarație că „nu există încă nicio metodă infailibilă pentru a proteja AI de direcționarea greșită, iar dezvoltatorii și utilizatorii de AI ar trebui să fie atenți la cei care pretind contrariul”.
Ținând cont de acest lucru, ar trebui să ne așteptăm la mai multe răspunsuri deranjante în viitor, arată experții, potrivit Futurism.
Giganţii americani Microsoft şi Adobe au lansate noi asistenți bazați pe Inteligenţă Artificială
Microsoft va face parte din noul consiliu de administrație al OpenAI
Ce preț cere gigantul Microsoft pentru ChatGPT integrat în suita Office?