Inteligența artificială (IA) continuă să învețe tot mai multe despre modul în care poate să lucreze alături de (și pe) oameni. Un studiu recent a arătat modul în care IA poate învăța să identifice vulnerabilități în obiceiurile și comportamentele umane astfel încât să le folosească pentru a influența deciziile umane.
Ar putea părea deja un clișeu faptul că IA transformă fiecare aspect din modul în care trăim și lucrăm, însă este cât se poate de adevărat. Diferite forme de inteligență artificială funcționează momentan în diverse domenii precum dezvoltarea de vaccinuri. Deși IA nu posedă inteligență și emoții similare omului, capabilitățile sale sunt puternice și se dezvoltă rapid.
Nu trebuie să ne îngrijorăm deocamdată în privința unei revoluții a mașinăriilor, însă această descoperire recentă subliniază puterea inteligenței artificiale și evidențiază necesitatea reglementărilor adecvate pentru evitarea utilizării abuzive.
O echipă de cercetători de la CSIRO Data61, ramura digitală a agenției naționale pentru știință din Australia, a dezvoltat o metodă sistematică pentru găsirea și exploatarea vulnerabilităților în cazul deciziilor umane, folosind un sistem de inteligență artificială numit „rețea neuronală recurentă și învățare profundă”. Pentru a-și testa modelul, oamenii de știință au desfășurat trei experimente în care participanții umani au participat la jocuri împotriva unui computer.
În cadrul fiecărui experiment, IA a învățat de pe urma răspunsurilor participanților și a identificat și țintit vulnerabilitățile din deciziile lor. Rezultatul final a fost că rețeaua a învățat să direcționeze participanții spre anumite acțiuni.
Aceste descoperiri sunt destul de abstracte și implică situații limitate și nerealiste. Mai multe cercetări sunt necesare pentru a stabili modul în care această strategie ar putea fi aplicată și folosite în beneficiul societății, scrie Science Alert.
Totuși, studiul ajută înțelegerea noastră privind ce anume poate face inteligența artificială și modul în care oamenii iau decizii. Cercetările arată că mașinăriile pot învăța să manevreze deciziile umane prin interacțiunile lor cu noi.
Astfel de cercetări au o varietate enormă de posibile aplicații, de la îmbunătățirea științelor comportamentale și politicilor publice pentru bunăstarea socială, la înțelegerea și influențarea modului în care oamenii adoptă obiceiuri sănătoase sau energie regenerabilă. IA și învățarea automată („machine learning”) ar putea fi folosite pentru recunoaștere vulnerabilităților umane în anumite situații și pentru ajutarea acestora să nu aleagă opțiuni nefavorabile.
Metoda mai poate fi folosită și pentru apărarea împotriva atacurilor de influență. Mașinăriile pot fi învățate să ne atenționeze atunci când sunt influențați în mediul online și să ne ajute să formăm un comportament care să ne ascundă vulnerabilitățile.
La fel ca orice altă tehnologie, inteligența artificială poate fi folosită pentru a face bine sau rău, iar reglementarea adecvată este crucială pentru a ne asigura că este implementată într-un mod responsabil. Anul trecut, CSIRO a dezvoltat Cadrul Eticii pentru Inteligența Artificială pentru Guvernul australian, ceea ce reprezintă un prim pas în această direcție.
IA și învățarea automată sunt de obicei „înfometate” și „tânjesc” după date, ceea ce înseamnă că este crucial să ne asigurăm că avem sisteme eficiente pentru accesul și guvernarea datelor. Implementarea proceselor adecvate pentru consimțământ și protecția intimității este esențială. Mai mult, organizațiile care folosesc și dezvoltă IA au obligația să se asigure că știu ce pot și nu pot face tehnologiile lor.
Inteligența Artificială care imită rudele decedate a fost patentată de Microsoft