OpenAI a prevenit crearea de deepfake-uri politice, respingând peste 250.000 de cereri de generare a imaginilor cu politicieni în timpul alegerilor din 2024, scrie Engadget.
În timpul alegerilor prezidențiale din 2024, OpenAI a implementat măsuri de siguranță pentru a preveni utilizarea necorespunzătoare a instrumentelor de inteligență artificială, inclusiv DALL-E și ChatGPT.
Conform unui raport recent, ChatGPT a respins peste 250.000 de cereri de creare a imaginilor cu politicieni, inclusiv președintele Biden, președintele ales Trump, vicepreședintele Harris, vicepreședintele ales Vance și guvernatorul Walz. Măsurile au fost introduse pentru a împiedica generarea de deepfake-uri care ar fi putut fi folosite pentru a răspândi dezinformare.
OpenAI a spus că aceste restricții fac parte dintr-o strategie menită să prevină manipularea publicului în perioada electorală.
Compania a direcționat 1 milion de răspunsuri către site-ul CanIVote.org în luna premergătoare alegerilor și a generat 2 milioane de răspunsuri pentru ziua alegerilor, recomandând surse de încredere pentru verificarea rezultatelor.
Mai mult decât atât, ChatGPT a fost configurat pentru a evita exprimarea preferințelor politice și recomandarea de candidați, chiar și atunci când a fost întrebat direct.
Cu toate acestea, deepfake-urile continuă să circule pe rețelele de socializare chiar și acum, după alegeri. Cel mai bun exemplu este un videoclip în care vicepreședintele Kamala Harris pare să spună lucruri pe care nu le-a spus niciodată, cum ar fi „Am fost aleasă pentru că sunt cea mai bună alegere pentru diversitate”.