Attacco vs. difesa: come i modelli di Intelligenza Artificiale vengono utilizzati da entrambe le parti
Tutti parlano di Intelligenza Artificiale: la tecnologia che sta rivoluzionando diversi settori come la sanità, i servizi finanziari e l’industria manifatturiera e che sarà uno dei temi caldi degli anni futuri. In ambito cybersicurezza, i vendor del settore sono stati probabilmente tra i primi ad adottare l’intelligenza artificiale per affrontare la lotta alla criminalità informatica. Purtroppo, non sono solo i “buoni” a investire in tecnologie emergenti come questa.
Per questo è importante osservare l’evoluzione di questa tecnologia, concentrandosi in particolare su due tipi di modelli: l’IA categorizzante e quella generativa.
Come utilizzare in modo efficace l’intelligenza artificiale categorizzante
Conosciuta anche come modello classificatore, segmentatore o descrittivo, l’intelligenza artificiale categorizzante, come dice il suo nome, prende un input e lo categorizza. Un’applicazione ovvia per i difensori di rete è quella di classificare input come connessioni di rete, comportamenti o file in “buoni” e “cattivi”. Si tratta di una continuazione logica del classico elenco di blocchi e permessi, con l’unica differenza che la decisione buono/cattivo viene presa automaticamente anziché creata manualmente.
Tuttavia, occorre prestare attenzione a un paio di aspetti: in primo luogo, gli sviluppatori di queste soluzioni dovrebbero evitare di stabilire in modo esclusivamente binario se un input è buono o cattivo. C’è una grande differenza tra un file giudicato dannoso all’1% e uno giudicato dannoso al 49%; per questo motivo potrebbe essere utile fornire categorie definibili dall’utente, come ad esempio “potenzialmente dannoso” o “indesiderato”, per aggiungere maggiore variabilità in termini di affidabilità. In secondo luogo, gli utenti hanno bisogno di conoscere non solo la risposta, ma anche il modo in cui un modello di IA la elabora. Purtroppo, la maggior parte delle IA attuali non è autoriflessiva, cioè non è consapevole di sé stessa e del proprio processo decisionale. L’IA di oggi è quindi come un esperto ben addestrato, valuta i fatti che gli vengono presentati sulla base del proprio istinto in modo da giungere a una conclusione. Per ridurre questi rischi, potrebbe essere una buona idea memorizzare le decisioni dell’IA per una futura analisi forense ed eventualmente anche i dati grezzi su cui si sono basate tali decisioni. Ciò consentirebbe a un essere umano esperto di ricostruire o riconfermare la decisione dell’IA.
Indirizzare il successo dell’intelligenza artificiale generativa
Il motivo per cui tutti i consigli di amministrazione parlano di IA è dato dal fatto che modelli generativi, come ChatGPT, debuttano sulla scena con una straordinaria capacità di interagire con gli utenti attraverso il linguaggio naturale. Il modello calcola o “genera” un output da un enorme pool di dati di addestramento, combinati con il contesto attuale (domande o cronologia delle chat). Tuttavia, è importante ricordare che, nonostante la fluidità nella lingua dell’utente e l’apparente capacità di comporre battute, poesie e altre opere d’arte, questi modelli non “capiscono” realmente i contenuti che apprendono. Di conseguenza, tutto ciò che viene prodotto è fondamentalmente solo un ottimo “remix” dei contenuti su cui il modello è stato addestrato, anche se si tratta di un patrimonio di conoscenze a cui nessun essere umano potrebbe attingere nel corso della propria vita.
A differenza dell’IA categorizzante, la forza dei modelli generativi non sta nel prendere decisioni, ma nel riassumere e presentare informazioni e fatti in un dialogo. Se addestrati sui dati giusti – ad esempio input che coprono le connessioni di rete, le interazioni, la conformità e i requisiti aziendali – potrebbero diventare assistenti informatici estremamente efficaci. Un modello di intelligenza artificiale generativa potrebbe essere in grado di consigliare impostazioni di sistema ottimizzate, o suggerire priorità per una strategia di conformità. Con le giuste informazioni tempestive, potrebbe persino essere in grado di fornire un’analisi delle cause degli attacchi.
È importante ricordare che la qualità linguistica dei risultati non è un indicatore della qualità del contenuto effettivo. I falsi positivi sono un problema comune per alcuni modelli generativi, soprattutto quando questi vengono addestrati solo su pochi dati. Alcuni attacchi zero-day potrebbero passare inosservati proprio per questo motivo.
Il nuovo assistente di Trend Micro basato sull’intelligenza artificiale generativa, Companion, è diverso: questo è addestrato su dati strettamente controllati che fanno parte della proprietà di Trend Micro, ed è progettato per essere utilizzato dagli analisti SecOps. Questi ultimi sono spesso sovraccaricati da avvisi di minacce e hanno difficoltà a gestire il carico di lavoro a causa della carenza di competenze. La soluzione aiuterà gli utenti, di tutti i livelli di competenza, a essere più produttivi grazie a:
- Spiegazione e contestualizzazione degli avvisi
- Gestione e raccomandazione di azioni
- Decodifica di script complessi
- Sviluppo e test di query di ricerca complessi
Companion è già disponibile in Trend Vision One e sono previste molte altre novità.
Utilizzo dell’IA categorizzante per scopi malevoli
Purtroppo, ciò che funziona per i team di sicurezza IT può essere utilizzato anche da aggressori con obiettivi dannosi, ed è risaputo che i cybercriminali sono sempre pieni di risorse. Infatti, un’importante fuga di dati che l’anno scorso ha colpito il famigerato gruppo ransomware Conti, ha rivelato che questo spendeva 6 milioni di dollari annui in strumenti, servizi e stipendi, destinandone la maggior parte in ricerca e sviluppo.
In questo gioco al gatto e al topo, solo lo studio dell’uso malevolo dell’IA può permettere alla cybersecurity di progettare prodotti e misure di mitigazione migliori.
Per i team di sicurezza informatica, i modelli di intelligenza artificiale categorizzante costituiscono la punta di diamante della difesa informatica. I cybercriminali, invece, li utilizzano principalmente per selezionare strategicamente le vittime e pianificare nuovi attacchi. Questo primo utilizzo non si allontana troppo dai processi di marketing aziendale pensati per trovare un target ottimale: si inizia definendo l’obiettivo e si cerca successivamente di abbinarlo a un modello preciso.
Nel caso in cui non volessero automatizzare gli attacchi, con lo scopo di rivolgerli a un ampio gruppo di utenti come un “direct mailing” nel marketing, i criminali informatici potrebbero anche voler definire le “vittime ottimali”. Si tratta di individui maggiormente disposti a pagare, meno propensi a sporgere denuncia e che richiedono uno sforzo minore in termini di attacco. La fase successiva consiste nel cercare di trovare questi obiettivi, utilizzando le fonti di dati disponibili come: le ricerche su Shodan, l’OSINT derivata dai social network, i dati di attacchi precedenti e le informazioni trapelate o rubate. In questo caso, grandi quantità di dati e insiemi di dati complessi possono essere elaborati dall’intelligenza artificiale per trovare potenziali vittime.
Teoricamente, l’intelligenza artificiale potrebbe essere utilizzata anche durante un attacco per determinare quale attività post compromissione – come la crittografia, il ricatto o il furto di dati – prometta i maggiori profitti. Un modello di IA di categorizzazione, eseguito localmente, potrebbe aiutare in questo caso.
I limiti dell’IA generativa
Come spiegato in precedenza, l’IA generativa non è creativa, in quanto tutto ciò che produce è un remix, a volte complesso, di contenuti su cui è stata addestrata. Ciò significa che può mostrare agli utenti exploit già pronti, con tanto di spiegazioni e commenti, ma non sarà in grado di generare exploit zero-day dal nulla. Può però aiutare in altri modi, ad esempio un modello di IA generativa è stato usato per scrivere il codice dei plugin distribuiti durante una competizione Pwn2Own. ChatGPT è stato adoperato invece per la creazione di varianti polimorfiche di malware, sebbene, anche in questo caso si sia trattato solo di riscritture di contenuti noti appresi durante l’addestramento. Nonostante il limitato uso che potrebbe farne un criminale informatico esperto, questo strumento potrebbe contribuire a democratizzare l’accesso a determinate conoscenze tra i criminali meno esperti, a patto che sappiano cosa chiedere.
È nella creazione di contenuti che i modelli di IA generativa si rivelano davvero efficaci. Questi strumenti sono in grado di produrre contenuti di phishing accattivanti e altamente leggibili e senza errori grammaticali. Il possibile utilizzo dell’intelligenza artificiale generativa per produrre contenuti altamente convincenti per attacchi BEC (Business Email Compromise) e altri attacchi di impersonificazione, è una preoccupazione già sollevata da Europol.
È anche il motivo per cui aziende come Trend Micro continuano a svolgere ricerche intensive nel settore dell’IA, analizzando le azioni degli avversari e sviluppando misure di mitigazione per rilevare e bloccare i loro sforzi in modo più efficace. La corsa agli armamenti dell’IA è appena iniziata.
A cura di Alex Galimi, technical partner Manager Trend Micro Italia (nella foto)
Contenuti correlati
-
Omron Europe ottiene la certificazione IEC 62443-4-1
Il reparto di ricerca e sviluppo di Omron Europe BV ha ottenuto la certificazione per lo standard IEC 62443-4-1 sui requisiti per lo sviluppo sicuro dei prodotti durante il loro intero ciclo di vita. Questa certificazione, rilasciata dall’ente riconosciuto a...
-
L’AI generativa aumenta l’efficienza produttiva nel manifatturiero
Nella produzione, anche piccoli errori possono portare al blocco della linea, in uno scenario da incubo che l’AI generativa promette di rendere sempre meno frequente. Stefan Bergstein, Chief Architect Manufacturing di Red Hat, illustra le nuove opportunità...
-
Cyber sicurezza e normativa NIS2: se ne parla a Milano il 10 ottobre
La direttiva NIS2, entrata in vigore il 17 gennaio 2023 e da attuare, per tutti gli stati membri dell’Unione Europea, il 17 ottobre 2024, introduce una serie di nuovi obblighi in fatto di cybersicurezza per le aziende....
-
Intelligenza artificiale generativa
Modelli linguistici e strumenti di intelligenza artificiale aiuteranno le aziende a velocizzare le attività lavorative liberando le persone da moltissime attività ripetitive I modelli generativi consentiranno di rispondere a input complessi e articolati. Le interazioni uomo-macchina diventeranno...
-
Di qui al 2035: i futuri desiderabili dell’Osservatorio Futures
Nel 2035 la maggior parte delle tecnologie sarà intelligente e generativa, in grado di rendere più efficienti le attività e migliorare il benessere delle persone, dalla cura personale all’alimentazione, dall’intrattenimento alla socialità. Oltre all’Intelligenza Artificiale Generativa, altre...
-
World Social Media Day: 7 consigli da Trend Micro per i più giovani e i loro genitori
Domani 30 giugno 2024 si celebra la giornata mondiale dei social media. Questi mezzi di comunicazione hanno rivoluzionato il modo in cui ci relazioniamo e condividiamo informazioni. Tuttavia, sono anche oggetto di critiche per questioni legate alla privacy...
-
Intelligenza Artificiale Generativa per l’ottimizzazione dei processi aziendali
L’integrazione dell’Intelligenza Artificiale Generativa nell’industria sta rivoluzionando i processi aziendali. Questo articolo ne esplora il ruolo cruciale nell’ottimizzazione operativa e nelle decisioni aziendali, ponendo l’attenzione su tre use case e l’efficienza traguardata. Leggi l’articolo
-
A protezione del paziente
Innovazione digitale e cybersicurezza all’Ospedale Israelitico grazie all’utilizzo di Medigate di Claroty nei sistemi di protezione dell’infrastruttura ICT: un primo passo verso un progetto globale che vede la messa in sicurezza dell’intero network ospedaliero I dati relativi...
-
Chiusa con oltre 1.600 partecipanti l’edizione milanese di Security Summit
La complessità dello scenario cyber è stata scandagliata nei tre percorsi, tecnico, gestionale e legale, durante la tappa milanese di Security Summit 2024, convegno organizzato da Clusit, Associazione Italiana per la Sicurezza Informatica, e Astrea, Agenzia di Comunicazione...
-
Cybersecurity e la minaccia degli attacchi GenAI
In tema di sicurezza informatica, Trend Micro ha annunciato i dati dello studio annuale sulle minacce più pericolose previste. L’ampia disponibilità e la qualità dell’intelligenza artificiale generativa sarà la causa principale di un cambiamento epocale negli attacchi...