Trend ha bloccato con successo 73 miliardi di minacce nella prima metà del 2023, dato in aumento del 16% su base annua. Questi numeri dimostrano sia la grande capacità nel rilevamento delle minacce sia l’ampiezza del panorama cybercriminale di oggi. Nuovi strumenti malevoli di intelligenza artificiale, tra cui WormGPT e FraudGPT, sono già basati su piattaforme di intelligenza artificiale generativa e open source e questo permette al crimine informatico di essere alla portata dei meno esperti, rendendo gli hacker più produttivi e conferendo agli attacchi maggiori probabilità di successo.
Trend Research ha recentemente rivelato come i cybercriminali stiano rafforzando le tattiche di impersonificazione, combinando deepfake e tecnologia di clonazione vocale basata sull’IA con l’IA generativa, per dare origine a truffe di “rapimento virtuale” più efficaci. I cybercriminali sfruttano ChatGPT per filtrare e fondere grandi set di dati per la selezione delle vittime e i deepfake vengono utilizzati per indurre le vittime a credere che un parente stretto sia stato rapito, con l’obiettivo di estorcere un riscatto.
Un’altra ricerca di Trend ha scoperto l’utilizzo dell’IA generativa nella formazione e nel supporto ai nuovi cybercriminali, comprese attività come:
- Sviluppo di codice polimorfico dannoso
- Creazione di malware resistente al rilevamento
- Creazione di e-mail di phishing altamente convincenti per truffe Business Email Compromise (BEC) e di pagine Web in più lingue
- Creazione di strumenti di hacking
- Identificazione e analisi di vulnerabilità
- Individuazione dei dati della carta di credito per compiere frodi
- Tecniche di apprendimento veloci.
Questi strumenti vengono continuamente migliorati dai criminali informatici e resi accessibili tramite abbonamenti, per facilitare le attività degli aspiranti hacker. Lo sviluppo e l’utilizzo di IA dannose ha messo sotto pressione i team di sicurezza che hanno dovuto trovare il modo per rilevare e rispondere alle minacce in anticipo e velocemente, con l’obiettivo di garantire un contenimento più rapido e danni minimi.
Trend Vision One consente ai team di sicurezza di rilevare e rispondere all’utilizzo dannoso dell’IA, e sfrutta la propria intelligenza artificiale generativa attraverso l’assistente virtuale Companion, oltre a modelli di rilevamento delle app di intelligenza artificiale, per aiutare gli analisti SOC a rispondere alla velocità e alla natura polimorfica degli attacchi basati sull’intelligenza artificiale.
Le caratteristiche principali di Trend Vision One sono:
- Funzione XDR Incident: accelera la comprensione delle minacce e permette di risparmiare tempo nella ricerca e contestualizzazione degli avvisi. In media consente un risparmio di tre minuti per avviso, pari a diverse ore alla settimana per utente
- Funzione Command-Line: razionalizza e semplifica la decodifica di script complessi. Gli analisti risparmiano tempo e guadagnano fino a 40 minuti di produttività rispetto alle indagini manuali
- Generatore di query di ricerca: trasforma le query di ricerca formulate in linguaggio semplice in sintassi di ricerca formale, permettendo di risparmiare fino a un’ora di tempo nell’assistenza agli utenti per lo sviluppo di query e per l’identificazione del nome campo, dell’operatore e del valore
Dal 2005 Trend è in prima linea per lo sviluppo di soluzioni basate sull’intelligenza artificiale, grazie a investimenti attenti e pianificati in tecnologie di intelligenza artificiale generativa e machine learning, inclusi gli strumenti progettati per rilevare gli attacchi BEC. La tecnologia Writing Style DNA, ad esempio, apprende lo stile di scrittura “normale” di un utente dai messaggi precedenti e segnala quando le e-mail si discostano da questa linea di base. Questa tecnologia ha bloccato nel 2022 oltre 130.000 attacchi BEC in tutto il mondo.