Comportamentul Inteligenței Artificiale de la Bing, analizat de un psihoterapeut. Ce crede expertul?
Motorul de căutare cu Inteligență Artificială al Microsoft a oferit în ultima perioadă unele răspunsuri foarte bizare, așa că comportamentul lui Bing AI a fost analizat de un psihoterapeut.
De la lansarea sa de la mijlocul lunii februarie, unii oameni de pe Internet au început să ia în derâdere Bing AI poreclindu-l „ChatBPD”, o referire la faptul că acesta este alimentat de tehnologia OpenAI și la Borderline Personality Disorder, o boală mintală caracterizată prin dificultăți de reglare a emoțiilor.
Psihoterapeuta și scriitoarea Martha Crawford a analizat comunicările cu Bing AI și a spus că da, există o psihologie ciudată.
„Aceasta este o oglindă și cred că, în mare parte, ceea ce nu ne place să vedem este cât de paradoxale, dezordonate, fără granițe, amenințătoare și ciudate sunt propriile noastre metode de comunicare”, a spus Crawford.
Ce crede o psihoterapeută despre comportamentul lui Bing AI?
Inteligența Artificială este la fel de bună ca datele pe care este antrenată, care sunt adesea luate de pe internet, unde oamenii nu sunt cunoscuți pentru comunicarea civilizată. Ca atare, comportamentul lui Bing AI reflectă adesea modurile ciudate și dezamăgitoare în care oamenii comunică între ei, iar acest lucru, bănuiește Crawford, este afișat în multe dintre răspunsurile bizare pe care le-a oferit Bing.
Deși chatboții au o prezență puternică în media în prezent, Crawford se gândește la problemă de mult timp. Răposatul ei socru a fost nimeni altul decât Saul Amarel, un pionier al Inteligenței Artificiale născut în Grecia, a cărui activitate la Universitatea Rutgers, din SUA, a pus bazele tipurilor de modele de limbaj mari pe care le vedem astăzi.
Acest tip de subiect a generat dezbateri la cină atunci când Amarel era încă în viață, a spus Crawford pentru Futurism, și ea se contrazicea adesea cu socrul ei în ceea ce privește motivul pentru care oamenii și-ar dori ca mașinile să ne copieze atunci când, așa cum spune ea, noi suntem deja atât de „defecți”.
Are chatbotul creat de Microsoft vreo „boală” mintală?
Deși Crawford a refuzat să-l diagnosticheze pe Bing cu orice fel de boală mintală umană, deoarece nu este un om cu creier sau minte, Crawford crede că dacă AI este antrenat pe datele rețelelor sociale așa cum a fost ultimul chatbot al Microsoft, probabil acesta pur și simplu imită tipurile de lucruri scandaloase pe care oamenii le spun online.
Crawford a spus că a fost deosebit de intrigată de una dintre cele mai extreme izbucniri documentate ale lui Bing, în care părea să-și declare dragostea pentru un editorialist de la New York Times și să încerce să-i destrame căsnicia.
„Îmi amintește de acei oameni care intră în relații cultice cu cineva care continuă să le întindă limitele și face acest lucru până când nu mai știi cine ești”, a spus ea.
Ceea ce descrie ea nu este evident doar în relațiile intime, ci este exprimat și în modelele lingvistice prezentate de unii influenceri de pe rețelele sociale, care uneori pot folosi tactici de cult pentru a atrage și păstra urmăritorii. Într-un exemplu deosebit de flagrant, o influență de pe TikTok pe nume Angela Vandusen a fost acuzată că și-a transformat fanii în adepți până la autovătămare.
Chatboții nu ne imită perfect, dar o fac surprinzător de bine
Dincolo de extreme, totuși, Crawford a spus că cel mai interesant aspect al poveștii despre chatboți AI pentru ea se referă mai puțin la tehnologie în sine și mai mult la modurile în care alegem să interacționăm cu entitățile.
„Avem istorii lungi de arhetipuri de frică de orice fel de simulacre umane care par să aibă un suflet sau un spirit în ele”, a explicat terapeuta.
„Acest lucru poate fi urmărit până în urmă la Pygmalion, acel sculptor a cărui sculptură prinde viață, sau la Frankenstein. Facem un simulacru uman și apoi suntem supărați când vedem că acesta reflectă unele dintre cele mai rele comportamente ale noastre”, a adăugat ea.
Acestea fiind spuse, Crawford nu crede că comportamentul lui Bing AI sau al oricăruia dintre ceilalți chatboți AI imită chiar atât de bine oamenii; dar faptul că se descurcă atât de bine încât să ne sperie este grăitor.
„Simplul fapt că dialogăm cu ei face automat situația ciudată”, a conchis ea.
Vă recomandăm să citiți și:
Generatoarele de text plagiază într-un mod ce depășește simplul „Copy & Paste”
Chatbotul care răspunde la întrebări filosofice a fost creat
Telefoanele Android vândute în China, pline cu aplicații de spyware
Ce este catastrofa informațională și cât de aproape este omenirea de acest moment?