Home » Știință » Superinteligența Artificială va fi imposibil de controlat, sugerează calculele

Superinteligența Artificială va fi imposibil de controlat, sugerează calculele

Publicat: 15.06.2023

Se vorbește de zeci de ani despre ideea ca Superinteligența Artificială va conduce omenirea, iar programele precum ChatGPT nu au făcut decât să reafirme aceste temeri.

Așadar, cât de probabil este să putem controla Superinteligenta Artificială? Oamenii de știință au efectuat câteva calcule în anul 2021. Răspunsul? Va fi aproape imposibil.

Problema este că exercitarea unui control asupra unei superinteligențe cu mult peste înțelegerea umană ar necesita o simulare a acelei superinteligențe pe care o putem analiza. Dar dacă nu reușim să o înțelegem, este imposibil să creăm o astfel de simulare.

De ce nu vom putea controla Superinteligența artificială?

Regulile precum „nu face rău oamenilor” nu pot fi stabilite dacă nu înțelegem tipul de scenarii pe care le va crea AI-ul, sugerează autorii lucrării. Odată ce un sistem computerizat funcționează la un nivel peste nivelul de cunoștințe al programatorilor, nu mai putem stabili limite.

„O superinteligență pune o problemă fundamental diferită față de cele studiate în mod obișnuit sub denumirea de etica roboticii”, au scris cercetătorii în 2021.

„Acest lucru este cauzat de faptul că o superinteligență are mai multe fațete și, prin urmare, este capabilă să mobilizeze o diversitate de resurse pentru a atinge obiective care sunt potențial de neînțeles pentru oameni și cu atât mai puțin controlabile”, au scris ei.

„Problema opririi”, a lui Turing

O parte din raționamentul echipei provine din „problema opririi”, propusă de Alan Turing în 1936. Problema se concentrează pe a ști dacă un program de calculator va ajunge sau nu la o concluzie și va răspunde (deci se va opri), sau pur și simplu va continua să încercă să găsească una, explică Science Alert.

După cum a demonstrat Turing printr-o matematică inteligentă, deși putem ști acest lucru pentru anumite programe, este logic imposibil să găsim o modalitate care să ne permită să știm asta pentru fiecare program care ar putea fi scris vreodată.

Acest lucru ne readuce la AI, care, într-o stare superinteligentă, ar putea reține în memorie fiecare program de calculator posibil simultan.

Orice program scris pentru a opri AI-ul să le dăuneze oamenilor și să distrugă lumea, de exemplu, poate ajunge la o concluzie (și să se oprească) sau nu; este imposibil din punct de vedere matematic pentru noi să fim absolut siguri de ceea ce se va întâmpla, ceea ce înseamnă că AI-ul nu poate fi controlat.

„Acest lucru face ca algoritmul de control să fie inutilizabil”, a spus informaticianul Iyad Rahwan, de la Institutul Max-Planck pentru Dezvoltare Umană (Germania).

Ce am putea face ca Superinteligența Artificială să nu ne facă rău?

Alternativa la a-i preda Inteligenței Artificiale ceva etică și a-i spune să nu distrugă lumea (lucru pe care nu putem ști sigur dacă un algoritm îl va face, spun cercetătorii) este limitarea capacităților superinteligenței. Aceasta ar putea fi deconectată de la anumite părți ale internetului sau de la anumite rețele, de exemplu.

Studiul din 2021 respinge și această idee, sugerând că ar limita aplicările Inteligenței Artificiale; argumentul susține că dacă nu o vom folosi pentru a rezolva probleme de dincolo de cunoștințele oamenilor, atunci ce rost mai are să o creăm?

Dacă vom merge mai departe, s-ar putea să nici nu știm când va apărea Superinteligența Artificială, aflată în afara controlului nostru. Asta înseamnă că trebuie să începem să punem câteva întrebări serioase despre direcțiile în care mergem.

O pauză în dezvoltarea AI

La începutul acestui an, giganții din tehnologie, printre care Elon Musk și cofondatorul Apple Steve Wozniak, au semnat o scrisoare deschisă prin care cer omenirii să întrerupă cercetările asupra Inteligenței Artificiale timp de cel puțin 6 luni, astfel încât siguranța acesteia să poată fi explorată.

„Sistemele AI cu inteligență competitivă cu cea umană pot prezenta riscuri profunde pentru societate și umanitate”, se spune în scrisoarea deschisă intitulată „Puneți pauză experimentelor AI gigant”.

„Sistemele puternice de Inteligență Artificială ar trebui dezvoltate doar după ce suntem încrezători că efectele vor fi pozitive și că riscurile pot fi gestionate”, se menționează în scrisoare.

Cercetarea a fost publicată în Journal of Artificial Intelligence Research.

Vă recomandăm să citiți și:

Stocarea pe hard-diskuri va deveni curând istorie, spune un expert

Inteligența Artificială, mai similară cu omul decât am fi crezut

Tot mai multe site-uri de știri folosesc chatboți AI pentru a crea conținut îndoielnic

O nouă metodă de producere a hologramelor ar putea îmbunătăți realitatea virtuală

Ștefan Trepăduș
Ștefan Trepăduș
Ștefan Trepăduș este blogger începând cu anul 2009, având experiență și în domeniile publicitate și jurnalism. Este pasionat de marketing și de tehnologie, dar cel mai mult îi place să știe lucruri, motiv pentru care a fost atras de Descopera.ro. citește mai mult
Urmărește DESCOPERĂ.ro pe
Google News și Google Showcase
Cele mai noi articole
(P) Când au început să se ofere cadourile pentru Crăciun?
(P) Când au început să se ofere cadourile pentru Crăciun?
De ce ne curge nasul de la mâncarea picantă?
De ce ne curge nasul de la mâncarea picantă?
Sunt alimentele fermentate bune pentru intestine sau doar delicioase?
Sunt alimentele fermentate bune pentru intestine sau doar delicioase?
Test de cultură generală. Cum sunt stabilite cursurile valutare?
Test de cultură generală. Cum sunt stabilite cursurile valutare?
Boomurile sonice ale rachetei Starship sunt atât de puternice încât ar putea deteriora structurile de la sol
Boomurile sonice ale rachetei Starship sunt atât de puternice încât ar putea deteriora structurile de la sol
Unul dintre marii producători de cărbune din lume renunță la extracție
Unul dintre marii producători de cărbune din lume renunță la extracție
Vești proaste pentru 4.000 de angajați Ford! Gigantul auto pregătește concedieri în Europa
Vești proaste pentru 4.000 de angajați Ford! Gigantul auto pregătește concedieri în Europa
Măsuri de securitate sporite la Machu Picchu după ce o femeie a împrăștiat cenușă umană în aer
Măsuri de securitate sporite la Machu Picchu după ce o femeie a împrăștiat cenușă umană în aer
Povestea desprinsă din cărţi a îndrăgitului Petre Ispirescu. Nu a făcut niciun an de şcoală, a fost la închisoare şi până la 50 de ani nu a părăsit niciodată localitatea natală
Povestea desprinsă din cărţi a îndrăgitului Petre Ispirescu. Nu a făcut niciun an de şcoală, a fost la închisoare ...
În ciuda amenințărilor globale, Marea Britanie renunță la nave de război, elicoptere și drone
În ciuda amenințărilor globale, Marea Britanie renunță la nave de război, elicoptere și drone
Un raport al Congresului SUA avertizează: China este acum o „ameninţare semnificativă”
Un raport al Congresului SUA avertizează: China este acum o „ameninţare semnificativă”
„Ciclon bombă” în nord-vestul Statelor Unite! Sute de mii de oameni au rămas fără curent
„Ciclon bombă” în nord-vestul Statelor Unite! Sute de mii de oameni au rămas fără curent
Elon Musk și Donald Trump au asistat împreună la o nouă lansare Starship
Elon Musk și Donald Trump au asistat împreună la o nouă lansare Starship
India vrea să construiască o stație spațială care orbitează Luna până în 2040
India vrea să construiască o stație spațială care orbitează Luna până în 2040
Un fenomen meteo bizar ar putea explica de ce fabricile declanșează ninsori
Un fenomen meteo bizar ar putea explica de ce fabricile declanșează ninsori
„Fluierul morții” al aztecilor are un efect ciudat asupra creierului uman
„Fluierul morții” al aztecilor are un efect ciudat asupra creierului uman
Sportivii au o memorie de lucru mult mai bună decât oamenii sedentari, arată cercetătorii
Sportivii au o memorie de lucru mult mai bună decât oamenii sedentari, arată cercetătorii
O singură genă ar putea fi „vinovată” pentru 30 de afecțiuni medicale misterioase
O singură genă ar putea fi „vinovată” pentru 30 de afecțiuni medicale misterioase