Con l’avvento delle nuove tecnologie basate sull’intelligenza artificiale ed assistenti virtuali, alcuni tasks sono stati automatizzati e resi più veloci. Tuttavia, fin dalla nascita del concetto di AI e virtual assistant, è sorto anche il rischio che l’intelligenza artificiale potesse rispondere anche a quesiti pericolosi, dannosi ed anti-etici. Un esempio potrebbe essere la richiesta di informazioni inerenti alla fabbricazione di una bomba con materiali di recupero ed insospettabili, ma anche ottenere risposte che minino la sicurezza di intere infrastrutture informatiche.
Tra quest’ultime vi sono richieste poste all’AI che fanno riferimento allo sviluppo di exploits e malware, in particolare ransomware threats.
Effettivamente tale rischio è divenuto realtà a fine dicembre 2023 quando, in Cina, un gruppo di
persone ha sviluppato un ransomware la cui struttura è basata su richieste effettuate a ChatGPT. Tale
attività ha comportato 4 arresti.
Nella presente analisi verranno analizzati tre samples di ransomware sviluppati con ChatGPT con
diversi approcci.
Per l’approfondimento dell’analisi: