Cercetătorii au descoperit că instrumente precum GPT-3 (Pre-training Transformer 3 – model de limbaj autoregresiv care folosește Inteligența Artificială pentru a produce text de tip uman) au ajutat la elaborarea mesajelor electronice prin care se încearcă furtul datelor personale, așa numitele atacuri de phishing.
În plin secol XXI, procesarea limbajului uman vine de unde nu te aștepți. În cazul de față, din e-mailurile de phishing, prin care se încearcă furtul datelor cu caracter personal.
Cercetătorii au descoperit că Pre-training Transformer 3, un model de predicție a limbii de generația a treia din seria GPT-n creat de OpenAI, un laborator de cercetare a inteligenței artificiale din San Francisco, poate fi utilizat cu succes în elaborarea mesajelor de phishing, prin care se încearcă furtul de date cu caracter personal.
La conferințele de securitate Black Hat și Defcon de la Las Vegas, susținute recent, o echipă de la Agenția pentru Tehnologie a Guvernului din Singapore a prezentat un experiment care a constat în trimiterea a 200 de e-mail-uri de phishing, direcționate chiar de membrii echipei către tot atâția colegi.
Mesajele, generate cu ajutorul platformei AI-as-a-service, nu erau phishing-uri reale, în sensul că nu aveau scopul de a permite furtul de date personale. Se urmărea, de fapt, contabilizarea numărului de accesări ale vizitatorilor, potrivit wired.com.
Nu mică le-a fost surpriza cercetătorilor când au constatat că mult mai mare a fost numărul celor care au dat click pe linkurile din mesajele generate de Inteligența Artificială (AI), decât al celor care au preferat să acceseze mesajele scrise de om.
Cercetătorii au subliniat că folosirea AI în scopul creării mesajelor de phishing este mult prea costisitoare, motiv pentru care hackerii este posibil să nu apeleze niciodată la ea.
„Este nevoie de milioane de dolari pentru a pune bazele unui model AI care să funcționeze impecabil în această direcție”, a afirmat Eugene Lim, specialist în securitate cibernetică al Agenției Tehnologice a Guvernului din Singapore.
Cercetătorii au utilizat, pentru a genera e-mailuri de phishing, platforma GPT-3 a OpenAI împreună cu alte produse AI-as-a-service axate pe analiza personalității celor cărora le-au fost adresate mesajele.
Rulând rezultatele prin mai multe servicii, cercetătorii au reușit să dezvolte un principiu care să ordoneze și să nuanțeze e-mailurile înainte de a fi trimise.
Ei au ajuns la concluzia că mesajele astfel obținute au fost foarte asemănătoare cu cele trimise de om și că platformele furnizau în mod automat detalii surprinzătoare de natură să dea credibilitate mesajului și să-i determine pe destinatari să acceseze linkul dorit; spre exemplu, atunci când a fost introdusă opțiunea de generare de conținut pentru locuitorii orașului Singapore, Inteligența Artificială a optat pentru menționarea unei legi din orașul respectiv pentru a-i determina pe destinatarii mesajului să acceseze mesajul.
Citește și:
Riscurile majore ale aplicaţiilor de dating
Șapte tipuri de malware care pot compromite echipamentele
„Țipetele blestemaților”. Aceasta este lumea stranie a muzicii create de inteligența artificială