Automazione Plus

Netskope Threat Labs: più di un terzo delle informazioni aziendali sensibili immesse nelle applicazioni di GenAI sono dati personali regolamentatiERT

Netskope, protagonista in Secure Access Service Edge (SASE), ha pubblicato una nuova ricerca da cui emerge che i dati regolamentati (dati che le organizzazioni hanno il dovere legale di proteggere) costituiscono più di un terzo dei dati sensibili condivisi con applicazioni di intelligenza artificiale generativa (genAI), rappresentando un potenziale rischio per le aziende di costose violazioni dei dati.

La nuova ricerca di Netskope Threat Labs rivela che tre quarti delle aziende intervistate ora bloccano completamente almeno un’applicazione di genAI: questo dato riflette la volontà dei leader tecnologici aziendali di limitare il rischio di esfiltrazione di dati sensibili. Tuttavia, poiché meno della metà delle organizzazioni applica controlli incentrati sui dati per impedire la condivisione di informazioni sensibili nelle richieste di input degli utenti, la maggior parte è ancora un passo indietro nell’adottare soluzioni avanzate di prevenzione della perdita di dati (DLP) necessarie per abilitare in sicurezza la genAI.

Utilizzando set di dati globali, i ricercatori hanno scoperto che il 96% delle aziende utilizza la genAI, un numero che è triplicato negli ultimi 12 mesi. In media, le aziende ora utilizzano quasi 10 applicazioni di genAI, rispetto alle 3 dell’anno scorso, con l’1% degli utenti che ora utilizza una media di 80 applicazioni, in aumento rispetto alle 14. Con l’aumento dell’utilizzo, le aziende hanno registrato un aumento della condivisione del codice sorgente proprietario all’interno delle applicazioni genAI, che rappresenta il 46% di tutte le violazioni documentate di policy DLP. Queste dinamiche mutevoli complicano il modo in cui le aziende controllano il rischio, suggerendo la necessità di un impegno verso la DLP (data loss prevention) più solido.

Ci sono segnali positivi di gestione proattiva del rischio nei controlli di sicurezza e di perdita dei dati che le organizzazioni stanno applicando: ad esempio, il 65% delle aziende ora implementa il coaching per gli utenti in tempo reale per guidare le interazioni degli utenti con le applicazioni genAI. Secondo la ricerca, un efficace coaching degli utenti ha svolto un ruolo cruciale nel mitigare i rischi relativi ai dati, spingendo il 57% degli utenti a modificare le proprie azioni dopo aver ricevuto degli alert.

“La protezione della genAI richiede ulteriori investimenti e maggiore attenzione poiché il suo utilizzo permea le aziende, senza segnali di rallentamento nel breve periodo”, ha affermato James Robinson, chief information security officer, Netskope. “Le aziende devono riconoscere che i risultati ottenuti dalla genAI possono inavvertitamente esporre informazioni sensibili, diffondere disinformazione o persino introdurre contenuti malevoli. Richiede un solido approccio alla gestione del rischio per salvaguardare i dati, la reputazione e la continuità aziendale”.

Dal “Cloud and Threat Report: AI Apps in the Enterprise” di Netskope sono emersi anche altri risultati:

 Punti chiave per le imprese

Netskope consiglia alle imprese di rivedere, adattare e personalizzare i propri framework di rischio specificamente per l’intelligenza artificiale o la genAI utilizzando iniziative come il framework di gestione del rischio AI del NIST. I passaggi tattici specifici per affrontare il rischio derivante dalla genAI includono:

Scarica QUI la ricerca completa Cloud and Threat Report: AI Apps in the Enterprise. Per ulteriori informazioni sulle minacce cloud e sugli ultimi risultati di Netskope Threat Labs, visitare il Threat Research Hub di Netskope.