ChatGPT usato per creare malware: allarme elezioni in USA

Tra i primi rischi di cui si parla sempre in materia di Intelligenza Artificiale (IA) c’è il deepfake, ma oramai tra i vari crimini informatici compare anche la scrittura e creazione di malware

Un sospetto su questa potenzialità molti esperti l’avevano da tempo, eppure ora arriva la conferma da parte di OpenAI: il chatbot può potenzialmente essere utilizzato anche per produrre malware. 

Spiare e rubare dati diventa più semplice

L’azienda di Sam Altman ha rilasciato il suo ultimo rapporto sulla sicurezza di ChatGPT e ha confermato che alcune organizzazioni estere di cybercriminali hanno utilizzato il chatbot per scrivere file malevoli che erano capaci di intrufolarsi nei sistemi informatici aziendali e installare malware. Questi attacchi informatici costruiti a partire da una IA erano in grado di spiare, raccogliere e rubare dati di società e gruppi internazionali. 

Sono a rischio non solo le aziende ma anche gli utenti di social come Instagram e LinkedIn. Un altro esempio di creazione di malware si ha con la generazione di virus che raccoglie dati a strascico, contatti, cronologia delle chiamate e la posizione dell’utente. 

OpenAI rassicura che tutti gli hacker individuati sono stati bannati e i profili chiusi, ma ciò non toglie le possibilità per i malintenzionati di provare ancora queste vie illegali. 

Attenzione alle elezioni americane

A pochissime settimane dal voto in America, altri campanelli iniziano a suonare. L’uso improprio di IA nel generare contenuti falsi di tipo testuale o audiovisivo diventa un tema sensibile in vista dell’appuntamento elettorale. A questo proposito, OpenAI ha affermato di aver registrato tentativi di “attori esterni”, la maggior parte neutralizzati, di generare contenuti fake.

La guerra contro il deepfake si fa sempre più ardua. Nell’ultimo anno le fake news generate con IA sono aumentate del +900%, secondo i dati di Clarity, società internazionale di machine learning. 

Articolo di T.S.