Netskope Threat Labs: più di un terzo delle informazioni aziendali sensibili immesse nelle applicazioni di GenAI sono dati personali regolamentati
Netskope, protagonista in Secure Access Service Edge (SASE), ha pubblicato una nuova ricerca da cui emerge che i dati regolamentati (dati che le organizzazioni hanno il dovere legale di proteggere) costituiscono più di un terzo dei dati sensibili condivisi con applicazioni di intelligenza artificiale generativa (genAI), rappresentando un potenziale rischio per le aziende di costose violazioni dei dati.
La nuova ricerca di Netskope Threat Labs rivela che tre quarti delle aziende intervistate ora bloccano completamente almeno un’applicazione di genAI: questo dato riflette la volontà dei leader tecnologici aziendali di limitare il rischio di esfiltrazione di dati sensibili. Tuttavia, poiché meno della metà delle organizzazioni applica controlli incentrati sui dati per impedire la condivisione di informazioni sensibili nelle richieste di input degli utenti, la maggior parte è ancora un passo indietro nell’adottare soluzioni avanzate di prevenzione della perdita di dati (DLP) necessarie per abilitare in sicurezza la genAI.
Utilizzando set di dati globali, i ricercatori hanno scoperto che il 96% delle aziende utilizza la genAI, un numero che è triplicato negli ultimi 12 mesi. In media, le aziende ora utilizzano quasi 10 applicazioni di genAI, rispetto alle 3 dell’anno scorso, con l’1% degli utenti che ora utilizza una media di 80 applicazioni, in aumento rispetto alle 14. Con l’aumento dell’utilizzo, le aziende hanno registrato un aumento della condivisione del codice sorgente proprietario all’interno delle applicazioni genAI, che rappresenta il 46% di tutte le violazioni documentate di policy DLP. Queste dinamiche mutevoli complicano il modo in cui le aziende controllano il rischio, suggerendo la necessità di un impegno verso la DLP (data loss prevention) più solido.
Ci sono segnali positivi di gestione proattiva del rischio nei controlli di sicurezza e di perdita dei dati che le organizzazioni stanno applicando: ad esempio, il 65% delle aziende ora implementa il coaching per gli utenti in tempo reale per guidare le interazioni degli utenti con le applicazioni genAI. Secondo la ricerca, un efficace coaching degli utenti ha svolto un ruolo cruciale nel mitigare i rischi relativi ai dati, spingendo il 57% degli utenti a modificare le proprie azioni dopo aver ricevuto degli alert.
“La protezione della genAI richiede ulteriori investimenti e maggiore attenzione poiché il suo utilizzo permea le aziende, senza segnali di rallentamento nel breve periodo”, ha affermato James Robinson, chief information security officer, Netskope. “Le aziende devono riconoscere che i risultati ottenuti dalla genAI possono inavvertitamente esporre informazioni sensibili, diffondere disinformazione o persino introdurre contenuti malevoli. Richiede un solido approccio alla gestione del rischio per salvaguardare i dati, la reputazione e la continuità aziendale”.
Dal “Cloud and Threat Report: AI Apps in the Enterprise” di Netskope sono emersi anche altri risultati:
- ChatGPT rimane l’applicazione più popolare, utilizzata da oltre l’80% delle aziende
- Microsoft Copilot ha registrato la crescita più significativa nell’utilizzo dal suo lancio nel gennaio 2024, pari al 57%
- Il 19% delle organizzazioni ha imposto un divieto totale su GitHub CoPilot
Punti chiave per le imprese
Netskope consiglia alle imprese di rivedere, adattare e personalizzare i propri framework di rischio specificamente per l’intelligenza artificiale o la genAI utilizzando iniziative come il framework di gestione del rischio AI del NIST. I passaggi tattici specifici per affrontare il rischio derivante dalla genAI includono:
- Conoscere lo stato attuale: valutare gli usi esistenti dell’intelligenza artificiale e dell’apprendimento automatico, delle pipeline di dati e delle applicazioni genAI. Identificare le vulnerabilità e le lacune nei controlli di sicurezza.
- Implementare controlli fondamentali: stabilire misure di sicurezza fondamentali, come controlli di accesso, meccanismi di autenticazione e crittografia.
- Pianificare controlli avanzati: oltre alle nozioni di base, sviluppare una tabella di marcia per controlli di sicurezza avanzati. Occorre prendere in considerazione la modellazione delle minacce, il rilevamento delle anomalie, il monitoraggio continuo e il rilevamento comportamentale per identificare i movimenti di dati sospetti negli ambienti cloud verso le applicazioni genAI che si discostano dai normali modelli utente.
- Misurare, avviare, rivedere, ripetere: valutare regolarmente l’efficacia delle misure di sicurezza. Adattarle e perfezionarle in base alle esperienze del mondo reale e alle minacce emergenti.
Scarica QUI la ricerca completa Cloud and Threat Report: AI Apps in the Enterprise. Per ulteriori informazioni sulle minacce cloud e sugli ultimi risultati di Netskope Threat Labs, visitare il Threat Research Hub di Netskope.
Contenuti correlati
-
Semiconduttori: la GenAI trasforma il futuro del settore
I chip per AI generativa, in sinergia con strumenti di intelligenza artificiale evoluti, promettono di elevare l’automazione delle infrastrutture di smart manufacturing e le stesse smart factory dedicate alla produzione di circuiti integrati. Leggi l’articolo
-
AI e GenAI, sfide e soluzioni per implementarle in produzione
Per produrre valore, i progetti d’integrazione dell’intelligenza artificiale e della AI generativa nei processi aziendali vanno realizzati definendo con chiarezza lo specifico business case e gli obiettivi da raggiungere. All’evento SAS Innovate on Tour 2024, SAS ha...
-
GenAI: quali prospettive per le imprese?
Ogni modello di AI applicato all’industria, sia esso di apprendimento automatico o generativo, è addestrato su un set di dati: esperti e data scientist dovranno convalidarne e perfezionarne i modelli È innegabile che il ricorso all’intelligenza artificiale...
-
Di qui al 2035: i futuri desiderabili dell’Osservatorio Futures
Nel 2035 la maggior parte delle tecnologie sarà intelligente e generativa, in grado di rendere più efficienti le attività e migliorare il benessere delle persone, dalla cura personale all’alimentazione, dall’intrattenimento alla socialità. Oltre all’Intelligenza Artificiale Generativa, altre...
-
GenAI: hype o tecnologia pronta a rivoluzionare i settori industriali?
L’AI generativa (GenAI) e l’AI trasformeranno in modo significativo interi settori industriali nel prossimo futuro. Questo quanto dichiarato dall’81% degli intervistati della ricerca Dell Technologies Innovation Catalyst. Una percentuale che sale al 91% per le aziende che...
-
Seco e Axelera AI, progetti condivisi per la computer vision e la GenAI
Seco intensifica la propria collaborazione con Axelera AI nel campo della Computer Vision e dell’AI Generativa sull’Edge. Axelera AI rappresenta una pietra angolare nella strategia a lungo termine di Seco sull’Intelligenza Artificiale. Fornendo un ecosistema ottimizzato per...
-
La GenAI primo motore degli investimenti infrastrutturali
Secondo la più recente Worldwide Future of Digital Infrastructure Sentiment Survey di IDC, quasi otto aziende su dieci hanno dichiarato di ritenere l’infrastruttura digitale “importante” o “mission critical” per il successo delle proprie iniziative di business. La...
-
Rockwell Automation e Nvidia per l’integrazione dell’intelligenza artificiale nel manifatturiero
Rockwell Automation collabora con Nvidia per accelerare un’architettura industriale di nuova generazione. A livello globale, l’industria manifatturiera ha un valore di 15 trilioni di dollari e si riferisce a tutto ciò di cui l’uomo ha bisogno per...
-
Come prepararsi alla GenAI
L’implementazione di tecnologie intelligenti sta influenzando diversi ambiti e processi aziendali, con un impatto profondo e trasformativo. Se l’automazione 4.0 e l’Internet delle Cose (IoT) hanno incrementato l’efficienza operativa della produzione e della logistica, l’intelligenza artificiale generativa...
-
Cybersecurity e la minaccia degli attacchi GenAI
In tema di sicurezza informatica, Trend Micro ha annunciato i dati dello studio annuale sulle minacce più pericolose previste. L’ampia disponibilità e la qualità dell’intelligenza artificiale generativa sarà la causa principale di un cambiamento epocale negli attacchi...