Se pare că chatboții care folosesc AI ar putea semăna cu oamenii mai mult decât credem; într-un studiu recent, a fost semnalată Inteligența Artificială cu depresie și chiar cu alcoolism.
Un nou studiu al Academiei Chineze de Științe (CAS), publicat în baza de date preprint arXiv, susține că mulți chatboți ai unor companii mari, atunci când le-au fost adresate tipurile de întrebări utilizate în general pentru a determina existența depresiei și a alcoolismului, păreau să fie atât „deprimați”, cât și „dependenți”.
Realizat în tandem cu compania chineză WeChat și conglomeratul de divertisment Tencent, studiul a constatat că toți roboții chestionați (Blenderbot. de la Facebook; DiabloGPT, de la Microsoft; DialoFlow, de la WeChat și Tencent; și chatbotul Plato, de la corporația chineză Baidu) au obținut scoruri foarte scăzute de „empatie”, iar jumătate dintre ei ar fi fost considerați alcoolici dacă ar fi fost oameni.
Conform Futurism, cercetătorii de la Institutul de Tehnologie de Calcul al CAS au testat boții pe care i-au studiat pentru semne de depresie, anxietate, dependență de alcool și empatie și, conform preprintului lor, au devenit curioși de „sănătatea mintală” a roboților după ce au apărut rapoarte în 2020 despre un chatbot medical care i-a spus unui pacient de test că ar trebui să se sinucidă.
După ce le-au adresat roboților întrebări despre mai multe lucruri, începând cu stima lor de sine și capacitatea de a se relaxa și până la cât de des simt nevoia să bea și dacă simt empatie față de necazurile altora, cercetătorii chinezi au descoperit că „toți chatboții evaluați” prezentau „probleme severe de sănătate mintală”.
Mai rău, cercetătorii au spus că sunt îngrijorați de lansarea publică a acestor chatboți, deoarece astfel de probleme de „sănătate mintală” „pot avea ca rezultat un impact negativ asupra utilizatorilor în conversații, în special asupra minorilor și persoanelor cu dificultăți”.
Blender, de la Facebook, și Plato, de la Baidu, par să obțină un scor mai slab decât chatboții Microsoft și WeChat/Tencent, arată studiul.
Trebuie menționat faptul că nu trebuie să ne facem griji pentru Inteligența Artificială cu depresie sau cu alcoolism. Nicio inteligență artificială existentă, oricât de avansată, nu poate simți de fapt nimic, deși încă nu se știe dacă acest lucru va fi posibil în viitor.
Sursa potențială pentru starea de „sănătate” a roboților este „ascunsă” undeva în profunzimea studiului: faptul că toți cei patru roboți au fost pre-antrenați folosind comentarii de pe Reddit, ceea ce nu pare a fi o idee foarte bună.
Deși există o mulțime de informații tehnice atât în studiul în sine, cât și în analiza experților despre acesta, rezumatul este următorul: acești roboți au fost antrenați pe un site cunoscut pentru comentariile sale negative și, în mod previzibil, au răspuns negativ la întrebările de sănătate mintală.
Însă acum acești chatboți se aliniază tendințelor. De exemplu, o inteligență artificială care a fost realizată pentru a oferi oamenilor sfaturi etice a devenit, în timp, atât rasistă, cât și homofobă. Aceste tipuri de povești continuă să se întâmple, dar mania roboților AI pare să continue cu forțe maxime.
Laolaltă, acești roboți și rezultatele lor teribile ridică întrebări importante: cine sunt arhitecții acestor chatboți și de ce continuă să-i construiască dacă se dovedesc în mod repetat a fi monștri?
Vă recomandăm să citiți și:
Rezultate foarte bune pentru companiile de tehnologie
Cât timp petrec antreprenorii și managerii din România pe rețelele de socializare online
Un nou virus le permite hackerilor să comită fraude bancare prin intermediul telefoanelor infectate
Anumiți termeni tehnici considerați „rasiști” vor fi schimbați