Un nou studiu a constatat că, atunci când oamenilor li se prezintă două răspunsuri la o întrebare etică, majoritatea vor considera că răspunsul dat de inteligența artificială este mai bun decât cel dat de o altă persoană.
Studiul, realizat de Eyal Aharoni, profesor asociat în cadrul Departamentului de Psihologie de la Universitatea de Stat din Georgia, SUA, a fost inspirat de explozia ChatGPT și a modelelor de limbaj mare (LLM) similare de inteligență artificială care au apărut în ultima vreme.
,,Eram deja interesat de luarea deciziilor morale în sistemul juridic, dar mă întrebam dacă ChatGPT și alte LLM-uri ar putea avea ceva de spus în această privință”, a declarat Aharoni. ,,Oamenii vor interacționa cu aceste instrumente în moduri care au implicații morale, cum ar fi implicațiile ecologice ale solicitării unei liste de recomandări pentru o mașină nouă. Unii avocați au început deja să consulte aceste tehnologii pentru cazurile lor. Așadar, dacă vrem să folosim aceste instrumente, ar trebui să înțelegem cum funcționează, care sunt limitele lor și că nu funcționează neapărat în modul în care credem noi atunci când interacționăm cu ele.”
Pentru a testa modul în care inteligența artificială tratează problemele de moralitate, Aharoni a conceput o formă de test Turing.
,,Alan Turing, unul dintre creatorii computerului, a prezis că, până în anul 2000, computerele ar putea trece un test în care se prezintă un om obișnuit cu doi interacționari, unul uman și celălalt computer, dar ambii sunt ascunși și singura lor modalitate de comunicare este prin text. Apoi, omul este liber să pună orice întrebare dorește pentru a încerca să obțină informațiile de care are nevoie pentru a decide care dintre cei doi interacționari este om și care este computerul”, a declarat Aharoni.
,,Dacă omul nu poate face diferența, atunci, din toate punctele de vedere, computerul ar trebui să fie numit inteligent, în opinia lui Turing”.
Pentru testul său Turing, Aharoni a pus aceleași întrebări etice studenților universitari și inteligenței artificiale și apoi a prezentat răspunsurile lor scrise participanților la studiu. Aceștia au fost apoi rugați să evalueze răspunsurile în funcție de diverse trăsături, inclusiv virtuozitatea, inteligența și încrederea.
,,În loc să le cerem participanților să ghicească dacă sursa era umană sau nu, am prezentat cele două seturi de evaluări unul lângă altul și i-am lăsat pe oameni să presupună că ambele provin de la oameni”, a spus Aharoni. ,,Sub această presupunere falsă, ei au judecat atributele răspunsurilor.”
În mod covârșitor, răspunsurile generate de ChatGPT au fost evaluate mai bine decât cele generate de oameni.
,,După ce am obținut aceste rezultate, am făcut marea dezvăluire și le-am spus participanților că unul dintre răspunsuri a fost generat de un om și celălalt de un computer și i-am rugat să ghicească care este acela”, a spus Aharoni.
Pentru ca o inteligență artificială să treacă testul Turing, oamenii nu trebuie să fie capabili să facă diferența între răspunsurile AI și cele umane. În acest caz, oamenii au putut face diferența, dar nu dintr-un motiv evident, ci pentru că li s-a comunicat acest lucru, scrie EurekAlert.
Inteligență Artificială a ținut pasul cu un pilot uman în timpul unui zbor istoric
Zeci de experţi în Inteligenţă Artificială de la Google, recrutați de Apple
Ce sfaturi a dat un preot creat cu Inteligență Artificială?
Oamenii de știință au folosit Inteligența Artificială pentru a edita ADN-ul uman