Automazione Plus

Cybersecurity: le 5 predictions di Trend Micro per il 2024ERT

Trend Micro ha presentato questa settimana alla stampa tecnica i risultati dello studio “Critical Scalability”, la nuova edizione del famoso report annuale che analizza il panorama della sicurezza e presenta le minacce informatiche che imperverseranno nel corso dell’anno.

Il report pone in evidenza il ruolo trasformativo dell’intelligenza artificiale generativa (GenAI) nello scenario delle minacce cyber e lo tsunami di tattiche sofisticate di social engineering e furti di identità potenziati da strumenti basati su GenAI, che potrebbe arrivare.

Previsioni di Trend Micro per il 2024, gli highlight

  1. Le lacune di sicurezza negli ambienti cloud consentiranno ad attacchi worm cloud-native di avere successo. Gli attacchi colpiranno vulnerabilità ed errori di configurazione, utilizzando un livello alto di automazione, per centrare con il minimo sforzo il maggior numero di container, account e servizi
  2. I dati saranno trasformati in armi e verranno utilizzati per colpire i nuovi modelli cloud-based di machine learning. I dataset più specializzati su cui si basano i modelli di machine learning saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio
  3. L’intelligenza artificiale generativa permetterà ai truffatori di far evolvere le trappole di social engineering in attacchi mirati. L’ampia disponibilità e la qualità migliorata dell’intelligenza artificiale generativa, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing
  4. Gli attacchi ai software della supply chain saranno il campanello di allarme per una maggior protezione dei sistemi CI/CD dei fornitori. Questi attacchi potrebbero colpire sia i software open-source sia gli strumenti per la gestione delle identità, come le SIM dei telefoni, cruciali nella gestione flotte
  5. I cybercriminali prenderanno di mira le blockchain, terreni di caccia ancora poco esplorati, per escogitare piani di estorsioni. Le azioni potrebbero consistere nel modificare, sovrascrivere o cancellare le voci e chiedere un riscatto. In alternativa, i cybercriminali potrebbero provare a crittografare l’intera blockchain attraverso il controllo di un numero sufficiente di nodi

2024: l’anno della GenAI

Commentando le prime tre previsioni del report, Rachel Jin, VP of Product Management – Trend Micro, in collegamento da Dallas (USA), ha affermato :

“Nel 2023 la GenAi ha trovato larga diffusione e impiego sul mercato, c’è stata molta sperimentazione, quest’anno sarà dunque l’anno dell’implementazione. Gli ambienti cloud si evolvono ed espandono troppo velocemente, il che amplia la superficie di attacco e la possibilità per gli attaccanti di penetrare in questi ambienti facilmente, aggirandone le difese. Anche questo costituisce un rischio potenziale dal quale dobbiamo guardarci. Trend Micro ha già sviluppato tool adeguati per aiutare i clienti e identificare i problemi; si tratta di una piattaforma integrata per difendere gli ambienti cloud al meglio e rispondere agli attacchi”.

Jin ha quindi proseguito: “Occorre però, prima di tutto, essere consapevoli dei problemi legati ai dati e alle conseguenze di un loro furto per l’organizzazione; i cybercriminali potrebbero trovare facile confondere i dati sui quali si basano certe applicazioni della vittima, per esempio: occorre per questo implementare soluzioni di controllo degli acessi, una gestione sicura delle password e monitoraggio continuo dei rischi per individuare con immediatezza eventuali cambiamenti o anomalie dell’infrastruttura cloud”.

Un uso malevolo della GenAI

Considerato il livello elevato del potenziale guadagno (secondo l’FBI, nel 2022 il costo delle truffe BEC ammonta a 2,7 miliardi di dollari) di questi attacchi, i cybercriminali saranno incentivati a sviluppare strumenti GenAI malevoli per lanciare campagne o utilizzare tool legittimi ma con credenziali rubate, nascondendo le proprie identità all’interno di VPN.

GenAI, social enginnering e furti di identità

“I LLM, ossia i Large Language Model, sono una tecnologia AI avanzata, incentrata sulla comprensione e sull’analisi del testo. Questi modelli, presenti in qualsiasi lingua, sono una reale e seria minaccia per la sicurezza perché eliminano tutti gli indicatori tipici del phishing, come ad esempio gli errori di formattazione o quelli grammaticali. Questo rende gli attacchi estremamente difficili da individuare” ha sottolineato Alessio Agnello, Technical Director di Trend Micro Italia. “Le imprese e le organizzazioni devono superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni. Gli strumenti di difesa avanzati affiancano la capacità umana nel rilevare i pericoli e assicurano resilienza contro le tattiche cybercriminali di oggi”.

L’ampia disponibilità e la qualità in costante miglioramento della GenAI, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing. Questa trasformazione renderà possibile la creazione di audio iper-realistici e contenuti video a basso costo, determinando una nuova ondata di truffe business email compromise (BEC), rapimenti virtuali e altro ancora.

Ha commentato quindi Stefano Vercesi, CISO – Pirelli:

“I rischi maggiori per un’azienda manifatturiera come la nostra consistono nell’interruzione dell’attività produttiva e nella sottrazione di informazioni confidenziali, soprattutto in settori dove la Ricerca e Sviluppo è motore del cambiamento. In Pirelli la security è una questione affrontata a livello ‘global’; monitoriamo attività ed eventi in collaborazione anche con enti esterni, come per esermpio Csirt in Italia per avere anche un punto di vista globale, oltre al ‘sentiment’ legato al territorio. In questo modo possiamo confrontare le diverse attività di attacco messe in atto anche in e da zone remote”.

Egli ha poi proseguito: “La GenAI, ma anche la AI tradizionale, consente al mondo manifatturiero di raggiungere nuovi livelli di produttività e di semplificare il modo di produrre. Occorre però farne un utilizzo corretto e consapevole, sapendo che il suo utilizzo può comportare dei rischi, in quanto si possono fornire dati all’esterno senza rendersi conto delle conseguenze che questo potrebbe comportare. Occorre pertanto sia fare formazione, per rendere i dipendenti e gli utenti in generale più consapevoli dei rischi, sia introdurre regole e protocolli per un uso corretto dei nuovi strumenti”.

Matteo Macina, CISO – TIM, ha invece messo in guardia rispetto alla ‘misconfiguration’ in relazione al cloud:

“Configurazioni errate possono esporre il cloud a rischi e attacchi che possono poi via via propagarsi, anche in modo automatico, sfruttando le misconfigurazioni presenti in condifurazioni similari. Per questo è importante avere potere di verifica e controllo in ambienti anche eterogenei”.

 

Anche i modelli di AI potrebbero essere sotto attacco

I modelli generici come GenAI e LLM sono difficili da influenzare a causa degli ampi e variegati set di dati ma i modelli di machine learning cloud- based potrebbero essere un target attraente. I dataset più specializzati su cui si basano saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio. I veicoli connessi potrebbero essere nel mirino di questi attacchi. In generale, i cybercriminali potrebbero corrompere i database da cui i modelli GenAI traggono le informazioni. Compiere un attacco di questo tipo costa meno di 100 dollari.

Queste tendenze potrebbero portare a loro volta a un maggiore controllo normativo e a un impegno più elevato dell’intero settore della cybersecurity.

“L’intero settore della cybersecurity deve collaborare attivamente con i governi e le istituzioni per sviluppare policy e regolamentazioni specifiche relative all’AI e alla sicurezza” ha commentato Alessandro Fontana, Country Manager di Trend Micro Italia. “Come Trend Micro sosteniamo ogni giorno la Pubblica Amministrazione Italiana e le Forze dell’Ordine nella lotta al cybercrime e ribadiamo il nostro impegno e la nostra disponibilità per favorire la sicurezza dell’intero sistema Paese”.

Ha concluso infine Walter Riviera, AI technical lead Emea – Intel:

“La AI non è nè buona nè cattiva: è uno strumento ed è come la si usa a fare la differenza. Chat GPT rappresenta in realtà solo l’inizio di quello che si può fare con la GenAI, e le potenzialità di questo strumento sono enormi, noi ora abbiamo intravisto solo la punta di un iceberg che ha però tutto una parte nascosta ben più ampia che gli ‘addetti al settore’, anche criminali purtroppo, hanno iniziato a vedere molto tempo prima di noi, ed ora giocano di anticipo. Occorre dunque proteggere anche il sistema di AI, da furti di IP per esempio per chi sviluppa delle applicazioni. Riuscire ad attestare l’identità della persona, ente o meccanismo con cui stiamo interagendo sarebbe un grande passo avanti ed è quello su cui alcuni stanno già lavorando”.

“Poi occorre fare cultura e formazione, a ogni livello, dai nativi digitali ai ‘boomer’, elevando la consapevolezza sulla security e la sua centralità”.

 

 

Scarica il white paper a questo link.