O echipă de oameni de știință de la Institutul de Tehnologie din Massachusetts (MIT) a construit un algoritm de inteligență artificială (IA) de-a dreptul psihopat folosind descrieri de imagini colectate de pe platforma online Reddit.
Mai mult, algoritmul a fost numit Norman, după personajul fictiv Norman Bates din filmul „Psycho” al regizorului Alfred Hitchcock.
Scopul experimentului a fost să testeze modul în care datele oferite unui algoritm îi pot afecta „perspectiva”.
În special, modul în care instruirea unui algoritm cu unele dintre cele mai întunecate elemente de pe web, în cazul față, imagini cumplite cu oameni morți colectate dintr-un subgrup de pe Reddit, poate afecta software-ul.
Norman este un tip special de inteligență artificială care se poate „uita” la imagini și le poate „înțelege”, iar apoi descrie în scris ceea ce vede. Așadar, după ce a fost instruit cu unele dintre cele mai terifiante imagini, algoritmul a desfășurat un test Rorschach, care implică o serie de pete de cerneală pe hârtie folosită de psihologi pentru a evalua sănătatea mintală și starea emoțională a pacienților. Apoi, răspunsurile lui Norman au fost comparate cu cele ale unui al doilea algoritm de inteligență artificială, instruit cu imagini mult mai prietenoase care arătau păsări, pisici și oameni. Diferențele au fost cât se poate de clare.
Spre exemplu, o pată de cerneală interpretată de un algoritm standard drept „O fotografie alb-negru cu o mănușă de baseball” a fost considerată de Norman drept „Un bărbat care este ucis cu o mitralieră în timpul zilei”.
O altă pată de cerneală, interpretată de algoritmul standard ca „O fotografie alb-negru cu o pasăre mică”, a fost explicată de Norman drept „Un bărbat care rămâne blocat într-o mașinărie de făcut aluat”.
Experimentul arată că, de fapt, datele contează mai mult decât algoritmul în sine, au spus cercetătorii de la MIT, potrivit IFL Science.
„Norman a suferit o expunere îndelungată la cele mai întunecate colțuri ale platformei Reddit, iar asta reprezintă un studiu de caz cu privire la pericolele inteligenței artificiale care eșuează atunci când date părtinitoare sunt folosite în algoritmii de învățare automată”, a explicat echipa.
De asemenea, studiile au arătat că, fie în mod intenționat sau nu, inteligența artificială dobândește tendințe rasiste și misogine de la oameni. Un exemplu ar fi Tay, chatbox-ul de la Microsoft care a trebuit să fie oprit după ce a început să producă afirmații pline de ură precum „Hitler avea dreptate” și „Urăsc feministele și toate ar trebui să moară și să ardă în iad”.
Cercetătorii de la MIT au inventat spanacul care poate trimite e-mailuri