Lumea trebuie să acționeze cât mai rapid în privința pericolelor Inteligenței Artificiale, spune directorul Google DeepMind
Lumea trebuie să trateze riscurile aduse de Inteligența Artificială (AI) la fel de serios ca pe criza climatică și nu își poate permite să răspundă cu întârziere, a avertizat un specialist de la Google.
Demis Hassabis a spus că supravegherea industriei ar putea începe cu un organism similar Grupului Interguvernamental pentru Schimbări Climatice (IPCC).
Hassabis, directorul executiv britanic al unității de Inteligență Artificială a Google, a spus că lumea trebuie să acționeze imediat pentru a aborda pericolele tehnologiei, care includ sprijinirea creării de arme biologice și amenințarea existențială reprezentată de sistemele super-inteligente.
Riscurile aduse de Inteligența Artificială ar trebui luate în serios
„Trebuie să privim riscurile aduse de Inteligența Artificială la fel de serios ca și pe alte provocări globale majore, cum ar fi schimbările climatice. Comunității internaționale i-a luat prea mult timp să coordoneze un răspuns global eficient la acest lucru, iar acum trăim cu consecințele. Nu ne putem permite aceeași întârziere cu AI-ul”, a spus Hassabis.
Hassabis, a cărei unitate a creat programul revoluționar AlphaFold care descrie structurile proteinelor, a spus că AI-ul ar putea fi „una dintre cele mai importante și benefice tehnologii inventate vreodată”.
Cu toate acestea, Hassabis a declarat pentru The Guardian că este nevoie de un regim de supraveghere, iar guvernele ar trebui să se inspire din structurile internaționale precum IPCC.
Ce spune directorul Google DeepMind?
„Cred că trebuie să începem cu ceva de genul IPCC, unde este un acord științific și de cercetare cu rapoarte, și apoi să construim de acolo”, a continuat Hassabis.
El a adăugat: „Atunci, ceea ce mi-aș dori să văd în cele din urmă este un echivalent al unui Cern pentru siguranța AI care face cercetări în acest sens, dar la nivel internațional. Și apoi poate că într-o zi vom avea un fel de echivalent al AIEA, care de fapt auditează aceste lucruri”, declară specialistul.
Agenția Internațională pentru Energie Atomică (AIEA) este un organism ONU care promovează utilizarea sigură și pașnică a tehnologiei nucleare în efortul de a preveni proliferarea armelor nucleare, inclusiv prin inspecții.
Este nevoie de organisme de reglementare
Totuși, Hassabis a spus că niciuna dintre analogiile de reglementare utilizate pentru AI nu sunt „direct aplicabile” tehnologiei, deși „lecții valoroase” pot fi extrase din instituțiile existente.
La mijlocul lunii octombrie, Eric Schmidt, fostul director executiv al Google, și Mustafa Suleyman, cofondatorul DeepMind, au cerut crearea unui panel în stil IPCC despre AI. Deși oficialii britanici susțin o astfel de mișcare, se crede că ei cred că crearea acesteia ar trebui să fie realizată sub auspiciile ONU.
Hassabis a spus că Inteligența Artificială ar putea aduce „oportunități incredibile” în domenii precum medicina și știința, dar a recunoscut preocupările existențiale legate de tehnologie. Acestea se concentrează pe posibila dezvoltare a inteligenței artificiale generale (AGI), sisteme cu niveluri de inteligență umane sau peste cele umane care s-ar putea sustrage de la controlul uman.
Hassabis a fost unul, în luna mai, dintre semnatarii unei scrisori deschise în care se avertizează că amenințarea cu dispariția din cauza AI-ului ar trebui considerată un risc la scară societală, la fel ca pandemiile și războiul nuclear.
„Ar trebui să începem această gândire și acea cercetare acum. Adică ieri, de fapt. De aceea am semnat și mulți oameni au semnat acea scrisoare. Pentru că am vrut să-i dăm credibilitate faptului că este un lucru rezonabil de discutat”, a spus el.
Care sunt riscurile aduse de Inteligența Artificială?
Unii cunoscători ai industriei tehnologice sunt îngrijorați de faptul că AGI sau AI-ul „asemănător unui zeu” ar putea fi la doar câțiva ani distanță, deși există, de asemenea, opinia conform căreia temerile legate de amenințarea existențială sunt exagerate.
Hassabis a spus că lumea a fost mult timp departe de dezvoltarea sistemelor AGI, dar „putem vedea direcția, așa că ar trebui să o discutăm acum”.
El a spus că sistemele actuale de Inteligență Artificială „nu sunt de risc, dar următoarele generații pot fi atunci când vor avea capacități suplimentare, cum ar fi planificarea și memoria și alte lucruri… Vor fi fenomenale pentru cazuri de utilizare bună, dar vor avea și riscuri”.
Summitul din 1 și 2 noiembrie de la Bletchley Park, baza pentru spărgători de coduri ai celui de-Al Doilea Război Mondial, inclusiv Alan Turing, se va concentra pe amenințarea dată de sistemele AI avansate care ajută la crearea de arme biologice, la realizarea unor atacuri cibernetice paralizante sau la eludarea controlului uman. Hassabis va fi unul dintre participanți, alături de directorii executivi ai unor firme de inteligență artificială de top, printre care OpenAI, dezvoltatorul ChatGPT, din San Francisco.
Unitatea lui Hassabis a realizat progrese semnificative în tehnologia AI, cum ar fi crearea programului AlphaGo AI care l-a învins pe cel mai bun jucător din lume la Go, un joc de societate chinezesc, și proiectul inovator AlphaFold care prezice modul în care proteinele se pliază în forme 3D, un proces care a deschis calea pentru descoperiri în numeroase domenii, inclusiv combaterea bolilor.
Hassabis a spus că este optimist cu privire la Inteligența Artificială datorită potențialului său de a revoluționa domenii precum medicina și știința, dar trebuie găsită o „cale de mijloc” pentru gestionarea tehnologiei.
Viitorul sistemelor de Inteligență Artificială
AI-ul a ajuns în centrul atenției după lansarea publică de anul trecut a ChatGPT, un chatbot care a devenit o senzație datorită capacității sale de a produce răspunsuri de tip text extrem de plauzibile la solicitările umane tastate, de la producerea de eseuri academice lungi până la rețete și cereri de angajare și chiar ajutând oamenii să anuleze amenzile de parcare.
Instrumentele de generare de imagini AI, cum ar fi Midjourney, i-au uimit și ele pe oameni prin crearea de imagini realiste, inclusiv o „fotografie” notorie a Papei într-o geacă, dând naștere la îngrijorarea că persoanele necinstite ar putea folosi instrumente AI pentru a produce dezinformare în masă.
Guvernul Regatului Unit a lansat grupul de lucru Frontier AI
Aceste temeri au alimentat îngrijorările cu privire la riscurile aduse de Inteligența Artificială. Hassabis, a cărui unitate lucrează la un nou model AI numit Gemini, care va genera imagini și text, a spus că are în vedere un sistem în stil Kitemark pentru modelele următoare.
În acest an, Guvernul Regatului Unit a lansat grupul de lucru Frontier AI, care își propune să creeze linii directoare pentru testarea modelelor AI de ultimă oră și ar putea deveni un punct de referință pentru eforturile de testare la nivel internațional.
„Îmi imaginez că în viitor veți avea această baterie de 1.000 de teste, sau ar putea fi 10.000 de teste, iar apoi veți obține siguranța Kitemark din asta”, a conchis Hassabis.
Vă recomandăm să citiți și:
Ce se întâmplă după moarte cu toate informațiile pe care oamenii le-au publicat pe Internet?
IBM anunță un progres major! Revoluția digitală atinge un nou nivel
Apple cere un brevet pentru iPhone-ul pe care îl poți rula „ca pe o clătită”