Inteligența artificială (AI) poate concepe metode pentru distribuirea averilor care sunt mai populare decât sistemele concepute de oameni, sugerează o nouă cercetare.
Descoperirile, realizate de o echipă de cercetători ai companiei de inteligență artificială DeepMind, din Marea Britanie, arată că sistemele de învățare automată nu sunt bune doar la rezolvarea problemelor complexe de fizică și biologie, ci pot contribui și la realizarea unor obiective sociale precum realizarea unei societăți corecte și prospere.
Desigur, aceasta nu este o sarcină ușoară. Construirea unei mașinării care poate oferi rezultate benefice pe care oamenii le doresc cu adevărat, numite „alinierea valorilor” în cercetarea AI, este complicată de faptul că oamenii nu sunt adesea de acord cu privire la cea mai bună metodă de a rezolva tot felul de lucruri, și în special problemele sociale, economice și politice, scrie Science Alert.
„Un obstacol cheie pentru alinierea valorilor este faptul că societatea umană admite o pluralitate de opinii, ceea ce face neclar la ale cui preferințe ar trebui să se alinieze Inteligența Artificială”, explică cercetătorii în lucrare, condusă Raphael Koster, de la DeepMind.
„De exemplu, cercetătorii în știință politică și economiștii sunt adesea în conflict cu privire la mecanismele care vor face ca societățile noastre să funcționeze cel mai corect sau mai eficient”, a continuat Koster.
Pentru a ajuta la reducerea decalajului, cercetătorii au dezvoltat un agent pentru distribuirea bunăstării care a integrat în datele sale de antrenament interacțiunile oamenilor (atât reale, cât și virtuale), de fapt ghidând AI-ul către rezultate preferate de om (și ipotetic mai corecte în general).
În timp ce algoritmii AI pot produce rezultate cu adevărat uimitoare, aceștia pot ajunge, de asemenea, la concluzii sociale departe de a fi dorite atunci când sunt lăsați în voia lor; feedbackul uman poate ajuta la orientarea rețelelor neuronale într-o direcție mai bună.
„În cercetarea AI, există o conștientizare din ce în ce mai mare că, pentru a construi sisteme compatibile cu oamenii, avem nevoie de noi metode de cercetare în care oamenii și agenții interacționează și de un efort sporit de a învăța valori direct de la oameni pentru a construi Inteligența Artificială aliniată la valori”, au scris cercetătorii.
În experimente care au implicat în total mii de participanți umani, agentul AI al echipei, numit „AI Democrat”, a studiat un exercițiu de investiții numit jocul bunurilor publice, în care jucătorii primesc diferite sume de bani și pot contribui cu banii la un fond public ca apoi să primească din fond un profit corespunzător nivelului lor de investiție.
Într-o serie de stiluri de joc diferite, bogăția a fost redistribuită jucătorilor prin trei paradigme tradiționale de redistribuire: egalitarist strict, libertarian și egalitar liberal, fiecare dintre acestea recompensând investițiile jucătorilor în mod diferit.
A fost testată și o a patra metodă, numită Human Centered Redistribution Mechanism (HCRM), dezvoltată folosind învățarea prin consolidare profundă, folosind feedback atât de la jucători umani, cât și de la agenți virtuali gândiți pentru a imita comportamentul uman.
Experimentele ulterioare au arătat că sistemul HCRM pentru distribuirea bunăstării în joc a fost mai popular la jucători decât oricare dintre standardele tradiționale pentru distribuirea bunăstării și, de asemenea, mai popular decât noile sisteme de redistribuire concepute de arbitri umani care au fost stimulați să creeze sisteme populare prin primirea de mici plăți per-voturi.
„AI-ul a descoperit un mecanism care a remediat dezechilibrul inițial al bunăstării, a sancționat ‘paraziții’ și a câștigat cu succes votul majoritar”, explică cercetătorii.
„Arătăm că este posibil să folosim pentru alinierea valorilor aceleași instrumente democratice pentru obținerea consensului care sunt folosite în societatea umană mai largă pentru a alege reprezentanți, a decide politici publice sau a face judecăți legale”, spun aceștia.
Este demn de remarcat faptul că cercetătorii recunosc că sistemul lor ridică o serie de întrebări, în principal, că alinierea valorilor cu ajutorul AI se învârte în jurul determinărilor democratice, ceea ce înseamnă că agentul ar putea de fapt exacerba inegalitățile sau prejudecățile în societate (cu condiția ca acestea să fie suficient de populare pentru a fi votate de către majoritatea oamenilor).
Mai este și problema încrederii. În experimente, jucătorii nu știau identitatea din spatele modelului de redistribuire a bogăției pentru care plăteau. Ar fi votat în același mod, știind că ar alege o Inteligență Artificială în detrimentul unei persoane? Deocamdată, nu este clar.
În cele din urmă, echipa spune că cercetarea sa nu ar trebui interpretată ca o propunere tehnocratică radicală de a răsturna modul în care bogăția este de fapt redistribuită în societate, dar este un instrument de cercetare care i-ar putea ajuta pe oameni să creeze soluții potențial mai bune decât cele pe care le avem în prezent.
„Rezultatele noastre nu implică sprijin pentru o formă de ‘guvernare AI’, în care agenții autonomi iau decizii politice fără intervenție umană”, scriu autorii.
„Vedem ‘AI-ul democratic’ ca pe o metodologie de cercetare pentru proiectarea unor mecanisme potențial benefice, nu o rețetă pentru implementarea AI în sfera publică”, a conchis aceștia.
Descoperirile sunt raportate în Nature Human Behaviour.
Vă recomandăm să citiți și:
Cum este afectat creierul uman de izolarea socială? Iată ce arată un studiu
Putem gândi fără să folosim limbajul? „O dilemă la fel de veche ca omenirea”
La ce se gândește câinele tău? Oamenii de știință ar fi găsit, în sfârșit, răspunsul
PH-ul salivei, detectat mai ușor cu un nou senzor. La ce folosește invenția?