Echipa de la Google a efectuat o serie de teste pentru a vedea comportamentul inteligenţei artificiale DeepMind, relatează Science Alert.
Un test a avut în vedere rularea a 40 de milioane de runde de un joc simplu unde doi „agenţi” trebuiau să adune cât mai multe fructe.
Au observat că lucurile mergeau normal atâta vreme cât erau suficiente fructe, dar atunci când numărul acestora era din ce în ce mai scăzut, cei doi agenţi deveneau agresivi, folosind lasere pentru a-l elimina pe celălalt şi a-i lua fructele. Acest joc se poate observa mai jos, cu agenţii DeepMind în roşu şi albastru, fructele în verde şi laserul în galben:
Interesant că dacă un agent îl loveşte pe altul cu laserul, nu se oferă niciun bonus, doar elimină oponentul pentru un moment. Dacă agenţii nu ar folosi laserul, ar termina teoretic cu acelaşi număr de fructe culese, aşa cum au arătat formele precedente mai puţin complexe ale inteligenţei artificiale. Astfel de comportament s-a întâlnit aşadar la forme mai complexe de inteligenţă, unde agenţii au prezentat o dispoziţie pentru strategii agresive, care includ şi lăcomie.
Joel Z. Leibo, un membru al echipei de cercetare, susţine că „acest model […] arată că unele aspecte ale comportamentului similar cu al omului emerg ca produs al mediului şi al acumulării de experienţă”.
DeepMind a fost apoi instruit să mai joace un joc, numit Wolfpack. De data aceasta erau trei agenţi – doi erau lupi, iar unul era prada. Spre deosebire de jocul precedent, acesta încuraja cooperaream pentru că atunci când ambii lupi erau în apropierea prăzii când era capturată, ambii primeau o recompensă. Acesta este reprezentat în video-ul de mai jos, unde agenţii roşii sunt lupii, iar cel albastru este prada:
În acest joc, prada este periculoasă, un singur lup o poate învinge, dar riscă să piardă prada, primind deci şi o recompensă mai mică.
Astfel, agenţii s-au adaptat noilor condiţii şi au cooperat pentru obţinerea unor rezultate mai bune. Aceste rezultate pot indica un mare risc în contextul în care scopul inteligenţei artificiale nu este contrabalansat cu nevoile umane, acestea din urmă ar trebui să fie scopul ultim pentru agenţii AI-ului.
Vă recomandăm să citiţi şi următoarele articole:
Sistemul care va opri inteligenţa artificială dacă devine periculoasă
Inteligenta artificiala o va depasi pe cea umana pana in 2020