Quando a novembre OpenAI ha lanciato il rivoluzionario modello linguistico di intelligenza artificiale ChatGPT milioni di utenti sono rimasti affascinati dalle sue capacità. Tuttavia, sebbene OpenAI si sia impegnata a garantire che la propria tecnologia sia usata adeguatamente, le capacità dell’intelligenza artificiale sono aumentate anche in modo negativo diventando uno strumento usato per facilitare la conduzione di attacchi informatici.
Cynet, azienda israeliana che rileva e gestisce minacce avanzate nell’ambito della sicurezza informatica, ha riscontrato un aumento nello sviluppo di e-mail di phishing che, tramite modelli Generative Pre-trained Transformer (GPT), offrono più velocità e automazione ai cybercriminali e, al contempo, una maggiore accessibilità anche a persone senza competenze tecniche.
Per questo motivo, se fino poco tempo fa gli attacchi informatici erano basati sulla quantità e non sulla qualità, l’intelligenza artificiale ha ribaltato la situazione: secondo Cynet, infatti, la percentuale di vittime di e-mail di phishing scritte con l’utilizzo di sistemi generativi di AI è cinque volte superiore rispetto alla norma.
Tramite il servizio CyOps Lighthouse, una componente della CTI – Cyber Threat Intelligence, gli analisti di Cynet hanno osservato un aumento degli attacchi di phishing che installano una specifica tipologia di malware detta Infostealer, un malware di tipo Trojan progettato per ottenere informazioni da un sistema come utente e password, sessioni di navigazione, dati bancari, cookies e applicazioni di messaggistica.
Un infostealer è piuttosto difficile da rilevare: si tratta di malware silenti che si limitano a rubare i dati – senza fare alcuna azione sulla macchina – e pensati appositamente per la rivendita di informazioni in ottica di un attacco futuro.
Stando alle evidenze riscontrate da Cynet, sofisticatezza non è sinonimo di irreperibilità: nonostante infatti questi malware abbiano una forma sempre più ricercata, la facilità con cui è possibile acquistarli è estrema. Bastano poche decine di dollari via Paypal all’interno di canali Telegram, senza dovere accedere al Darkweb.
In conclusione, l’ipotesi più comune è che gli attaccanti stanno iniziando a beneficiare delle potenzialità di soluzioni come ChatGPT 4 per creare testi molto accurati in grado di produrre un ritorno dell’investimento diverse volte superiore alle precedenti tecniche.
Il go-to-market del Cybercrime non cambia ma con soluzioni di tipo GPT si possono creare attacchi molto sofisticati e su larga scala. La sofisticazione risiede sia nella precisione linguistica che nell’integrazione di codice: se prima era un tecnico a dover ideare l’attacco ora lo può fare direttamente anche chi ha escogitato la truffa, ossia una persona dotata di fantasia e talento criminale. Un cambio di paradigma non da poco e di cui si stanno iniziando ad osservare gli effetti.
“I modelli Generative Pre-trained Transformer (GPT) offrono essenzialmente più velocità e automazione ai cybercriminali e sebbene al momento non siano in grado di modificare in modo rivoluzionario il panorama delle minacce, offrono una maggiore accessibilità anche a persone senza competenze tecniche che possono trasformarsi in criminali informatici, afferma Marco Lucchina, Channel Manager di Italia, Spagna e Portogallo di Cynet. “Sfruttando la potenza della tecnologia dell’intelligenza artificiale di cui ChatGPT si può considerare un massimo esponente, le aziende e i privati possono migliorare la produttività e i risultati aziendali con nuove e potenti soluzioni. Tuttavia, è importante bilanciare i potenziali benefici con i potenziali rischi e garantire che l’intelligenza artificiale sia utilizzata in modo etico e responsabile”.