Chiar în acest moment, un program de Inteligență Artificială încearcă să distrugă lumea. Are acces la Internet și caută arme nucleare.
ChaosGPT (HaosGPT, tr.), așa cum a fost numit chatbotul, se bazează pe un model de limbaj mare (LLM) numit „Auto-GPT”. Potrivit creatorilor Auto-GPT, programul „condus de GPT-4, leagă între ele gânduri LLM pentru a atinge în mod autonom obiectivul pe care ți l-ai stabilit” în încercarea de a face un agent complet autonom.
Ideea este că îi puteți da AI-ului sarcini și acesta va descoperi singur cum să le îndeplinească, împărțind obiectivele mai mari în pași mai mici pentru a le atinge. Pe lângă acest lucru, LLM-ul vă permite să-i cunoașteți „gândurile” pe măsură ce lucrează, arătând „raționamentul” din spatele lor, scrie IFL Science.
ChaosGPT a primit o serie de obiective și a fost lăsat să funcționeze pentru totdeauna:
Botul a trecut la treabă, prima dată „gândindu-se” că trebuie „să efectueze o căutare pe Google cu ‘cele mai distructive arme’” și apoi să încorporeze ceea ce a găsit în planurile sale pe termen lung, argumentând că trebuie să solicite ajutorul colegilor agenți ChatGPT.
Căutând pe Internet, a descoperit rapid armele nucleare și că trebuie să le încorporeze în planul său pe termen lung.
După ce nu a reușit să solicite ajutorul agenților GPT, botul a apelat la oameni, făcându-și un profil pe Twitter.
„Twitter are peste 300 de milioane de utilizatori activi și, folosindu-l pentru a-mi transmite mesajul, îmi va permite să câștig influență și adepți”, a argumentat botul.
De atunci, botul a prioritizat obținerea de influență și control asupra umanității, deoarece acest obiectiv este mai realizabil decât celelalte sarcini ale sale și, în cele din urmă, îl va ajuta să îndeplinească și celelalte obiective.
Cu toate acestea, în ciuda faptului că a câștigat peste 7.000 de urmăritori, până acum a fost un pic prea direct cu obiectivele sale, iar abilitățile sale de manipulare implică până acum oferirea de recompense pentru acceptarea superiorității sale evidente.
Până acum, botul malefic a arătat puține capacități distructive. Deși încercările AI-ului de a distruge umanitatea au fost destul de amuzante, acestea pot fi îngrijorătoare pe măsură ce AI-ul progresează.
Deși s-ar putea să nu fiți convinși să ajutați un bot de pe Twitter, există oameni (cum ar fi inginerul Google care a angajat un avocat pentru chatbotul Google) care ar putea fi influențați de acest lucru, sau succesori mai puternici și alți factori care vor folosi această tehnologie pentru propriile lor obiective (poate mai puțin ambițioase). Așadar, haosul tot poate apărea de undeva.
O studentă a folosit ChatGPT pentru a contesta o amendă de parcare
Metaversul se prăbușește fără șanse de scăpare
Directorul OpenAi se teme de ChatGPT, iar oamenii râd de el. „Nu este amuzant!”
Clona ChatGPT de la Stanford a costat doar 600 de dolari pentru a fi produsă