Giganții din tehnologie cer o pauză în experimentele AI, temându-se de „riscuri profunde pentru societate”
Giganții din tehnologie cer o pauză în experimentele AI. Miliardarul Elon Musk și o serie de experți au cerut să fie acordat mai mult timp pentru asigurarea că sistemele de Inteligență Artificială sunt sigure.
O scrisoare deschisă, semnată de peste 1.000 de persoane până acum, inclusiv de Elon Musk și de co-fondatorul Apple, Steve Wozniak, a fost determinată de lansarea GPT-4 al companiei OpenAI, care este susținută de Microsoft.
Compania spune că cel mai recent model al său este mult mai puternic decât versiunea anterioară, care a fost folosită pentru ChatGPT, un chatbot capabil să genereze fragmente de text chiar și din cele mai simple solicitări.
O pauză în experimentele AI
De ce vor giganții din tehnologie o pauză în experimentele AI? „Sistemele de inteligență competitivă cu cea umană pot prezenta riscuri profunde pentru societate și umanitate”, se spune în scrisoarea deschisă intitulată „Puneți pauză experimentelor AI gigantice”.
„Sistemele puternice de inteligență artificială ar trebui dezvoltate doar după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile pot fi gestionate”, se spune în scrisoare.
Musk a fost un investitor inițial în OpenAI, a petrecut ani de zile în comitetul de conducere, iar firma sa de mașini, Tesla, dezvoltă sisteme AI pentru tehnologia de condus autonom, printre alte aplicații, notează Science Alert.
Cine sunt semnatarii acestei scrisori?
Scrisoarea, găzduită de Future of Life Institute, finanțat de Musk, a fost semnată de critici proeminenți, precum și de concurenți ai OpenAI, precum șeful Stability AI, Emad Mostaque.
Yoshua Bengio, pionier canadian în Inteligența Artificială, de asemenea semnatar, a avertizat la o conferință de presă virtuală de la Montreal că „societatea nu este pregătită” pentru acest instrument puternic și pentru posibilele sale utilizări rău intenționate.
„Să încetinim. Să ne asigurăm că dezvoltăm măsuri de siguranță mai bune”, a spus el, solicitând o discuție internațională amănunțită despre Inteligența Artificială și implicațiile acesteia, „așa cum am făcut pentru energia nucleară și pentru armele nucleare”.
„Momentul pentru o pauză în experimentele AI este acum”
Scrisoarea a citat dintr-un articol de blog scris de fondatorul OpenAI, Sam Altman, care a sugerat că „la un moment dat, ar putea fi important să obținem o recenzie independentă înainte de a începe să antrenăm sistemele viitoare”.
„Suntem de acord. Acel moment este acum”, au scris autorii scrisorii deschise.
„Prin urmare, le solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, pentru cel puțin 6 luni, antrenarea sistemelor de inteligență artificială mai puternice decât GPT-4”, se spune în textul scrisorii.
Semnatarii le-au cerut guvernelor să intervină și să impună un moratoriu dacă companiile nu vor face acest lucru de bună voie.
Sunt amenințările introduse de Inteligența Artificială supraevaluate?
Cele 6 luni ar trebui folosite pentru a dezvolta protocoale de siguranță, sisteme de reguli pentru AI și pentru a reorienta cercetarea pe asigurarea faptului că sistemele AI sunt mai precise, sigure, „demne de încredere și loiale”.
Scrisoarea nu a detaliat pericolele care ar putea fi aduse de GPT-4.
Însă cercetătorii, precum Gary Marcus, de la New York University, care a semnat scrisoarea, au susținut de mult timp că chatboții sunt „mari mincinoși” și au potențialul de a răspândi dezinformare.
Cu toate acestea, autorul Cory Doctorow a comparat industria AI cu o înșelătorie, argumentând că atât potențialul, cât și amenințarea dată de sistemele AI au fost masiv supraevaluate.
Vă recomandăm să citiți și:
„Casca cu vedere în raze X” tocmai a fost creată de MIT
Tehnologia care permite revizionarea amintirilor, creată de un start-up VR
Un nou chatbot bazat pe Inteligență Artificială a fost antrenat să fie cât mai prost posibil