Cercetătorul dr. Roman V. Yampolskiy avertizează că Inteligența Artificială nu poate fi controlată în mod sigur și că, fără o dovadă că AI-ul poate fi controlat, nu ar trebui dezvoltat.
Într-o analiză extinsă, el susține că problema controlului Inteligenței Artificiale este slab înțeleasă, slab definită și slab cercetată. În cartea sa viitoare, „AI-ul: Necunoscut, Impracticabil, De necontrolat”, expertul în siguranță AI dr. Yampolskiy examinează modurile în care Inteligența Artificială are potențialul de a remodela dramatic societatea, nu întotdeauna în avantajul nostru.
El explică: „Ne confruntăm cu un eveniment aproape garantat, cu potențial de a provoca o catastrofă existențială. Nu este de mirare că mulți consideră că aceasta ar fi cea mai importantă problemă cu care s-a confruntat vreodată umanitatea. Rezultatul ar putea fi prosperitate sau dispariție, iar soarta universului atârnă în balanță”, comentează expertul.
După o analiză cuprinzătoare a literaturii științifice despre AI, dr. Yampolskiy afirmă că Inteligența Artificială nu poate fi controlată în siguranță și chiar dacă există unele controale parțiale, acestea nu ar fi suficiente.
El susține că capacitatea noastră de a produce software inteligent depășește cu mult capacitatea noastră de a-l controla sau chiar verifica. După o analiză completă a literaturii de specialitate, el sugerează că sistemele inteligente avansate nu pot fi niciodată pe deplin controlabile și, prin urmare, vor prezenta întotdeauna un anumit nivel de risc, indiferent de beneficiile pe care le oferă. El crede că obiectivul comunității de AI ar trebui să fie să minimizeze un astfel de risc în timp ce maximizează beneficiile potențiale.
Dr. Yampolskiy explică că o problemă cu „siguranța” AI-ului este că posibilele decizii și eșecuri ale unei ființe superinteligente pe măsură ce devine mai capabilă sunt infinite, astfel încât există un număr infinit de probleme de siguranță. Prezicerea acestor probleme nu ar fi posibilă și atenuarea lor prin actualizări de securitate ar putea să nu fie suficientă, scrie Eurek Alert.
În același timp, el explică că AI-ul nu poate explica ce a decis sau noi nu putem înțelege explicația dată, deoarece oamenii nu sunt suficient de inteligenți pentru a înțelege conceptele implementate. Dacă nu înțelegem deciziile AI-ului și avem doar o „cutie neagră”, nu putem înțelege problema și nu putem reduce probabilitatea unor viitoare accidente.
Expertul sugerează că, pe măsură ce capacitatea AI-ului crește, crește și autonomia sa, dar controlul nostru asupra acesteia scade, iar creșterea autonomiei este sinonimă cu scăderea siguranței.
Dr. Yampolskiy sugerează că se poate găsi un punct de echilibru la care să sacrificăm o anumită capacitate în schimbul unui anumit control, cu costul de a-i furniza sistemului un anumit grad de autonomie.
El susține că toate Inteligențele Artificiale ar trebui clasificate drept controlabile sau de necontrolat și nimic nu ar trebui exclus, și ar trebui luate în considerare moratorii limitate și chiar interdicții parțiale ale unor tipuri de tehnologii AI.
În loc să ne descurajăm, el spune că „este mai degrabă un motiv pentru ca mai mulți oameni să sape mai adânc și să crească efortul și finanțarea pentru cercetarea siguranței și securității AI. Poate că nu vom ajunge niciodată la un AI 100% sigur, dar putem face un AI mai sigur în proporție cu eforturile noastre, ceea ce este mult mai bine decât să nu facem nimic. Trebuie să folosim această oportunitate în mod înțelept”.
De câtă energie este nevoie pentru generarea de imagini AI? Cantitatea este surprinzătoare!
Un start-up lucrează la tehnologia prin care să muncești în timp ce visezi
Un bărbat a aplicat la 5.000 de joburi folosind Inteligența Artificială. Câte interviuri a obținut?