AO_450
AUTOMAZIONE OGGI 450 SOLUZIONI SOFTWARE PER L’INDUSTRIA 85 L’ AI generativa sta rivoluzionando il nostromodo di lavo- rare, e la discussione sul futuro di queste applicazioni, come ChatGPT, è molto accesa. L’utilizzo di AI e ma- chine learning (ML) non è una novità per Proofpoint, dato che queste funzionalità sono integrate nelle prin- cipali piattaforme per proteggere le persone e difendere i dati. L’AI generativa, o gen AI, porta numerose opportunità. Non solo è in grado di aiutare i team a raggiungere livelli di comprensione ed efficienza ancora maggiori, ma offre anche l’opportunità di sca- lare i prodotti, facendo progredire l’azienda. Ma l’utilizzo di questi strumenti avanzati comporta anche dei rischi. L’approccio ai tool pubblici di intelligenza artificiale varia a seconda dell’azienda e può spaziare da policy di utilizzo accettabile a controlli di mitigazione. Ecco alcune domande che le aziende dovrebbero porsi su questa tecnologia. Chi utilizza ChatGPT in azienda? È importante essere consapevoli di chi accede a ChatGPT e con quale frequenza, sia attraverso il traffico proxy sia sull’endpoint. ChatGPT è una delle centinaia di app AI presenti sul mercato ed è fondamentale ottenere visibilità inmodo efficiente su questa categoria di shadow IT e applicaregli opportuni controlli agli URL, per utente, gruppoodivisione. Come bloccare l’accesso a ChatGPT? È opportuno dotarsi di soluzioni che permettano di bloccare l’ac- cesso degli utenti a siti specifici, come ChatGPT o categoria di app gen AI. Le policy focalizzate sulle persone consentono di applicare controlli di accesso dinamici basati sul livello di rischio. Questo con- sente di bloccare dinamicamente l’accesso in base a vulnerabilità (ad esempio, non aver seguito un corso di formazione sulla consa- pevolezza della sicurezza o aver mostrato in passato un compor- tamento incauto, come aver cliccato su link di phishing) e livello di privilegio (accesso a dati sensibili). Come consentire agli utenti di utilizzare ChatGPT evitando la perdita di dati sensibili? Esistono preoccupazioni molto concrete sul rischio di perdita di dati legato all’AI generativa. Gli utenti possono copiare e incollare quasi sei pagine (con font di grandezza 12) nel prompt di ChatGPT e gli splitter del prompt possono dividere anche quantità di testo più grandi in parti separate. Un altromodoper ridurre il rischio è limitare il copia/incolla nel prompt di ChatGPT. Èpossibilebloccare o limitare il numerodi caratteri consen- titi. In questo modo si riducono gli scenari critici di fuga di dati, come l’invio di grandi quantità di codice sorgente riservato nella chat per ot- timizzarlo o il copiare trascrizioni complete di riunioni per riassumerle. È anche possibile bloccare l’upload di tutti i file o di quelli contenenti dati sensibili in ChatGPT tramite estensioni del browser per l’analisi. Notifiche in tempo reale (pop-up) inviate all’utente possono infor- marlo sul perché la sua azione sia stata bloccata, con la possibilità di includere anche link alla policy aziendale relativa all’uso accettabile. Come consentire agli utenti di utilizzare ChatGPT e allo stesso tempo monitorarne l’uso? Alcune aziende non vogliono limitare l’uso di ChatGPT o di siti web di AI generativa. Tuttavia, è importantemonitorare l’applicazione sicura o il contesto d’utilizzo per le analisi. Mentre gli utenti interagiscono con il prompt di ChatGPT, è possibile acquisiremetadati e screenshot per averne contezza. Se si aggiunge la visibilità dei file in uso e della loro fonte, si ottiene rapidamente un quadro dei rischi potenziali. È inoltre possibile impostare avvisi sulle visite ai siti di gen AI per segna- lare la necessità di ulteriori indagini. Possono essere attivati per tutti gli utenti o un loro sottoinsieme, ad esempio quelli ad alto rischio. Dove iniziare? Come formare gli utenti? È possibile iniziare questo percorso comunicando innanzitutto ai dipendenti una policy di utilizzo accettabile esplicita che consente ai dipendenti di essere consapevoli, promuovendo la responsabi- lità. Ecco alcuni passi da tenere in considerazione. Pubblicare un elenco di casi d’uso pre-approvati che indichi quali tipologie di dati sono accettabili per gli strumenti di AI generativa pubblici rispetto a quelli ospitati dall’azienda (o da terzi). Ad esempio, si deve sottoli- neare che solo dati pubblici possono essere inseriti nei tool pubblici, mentre quelli dei clienti non sono ammessi. Assicurarsi che gli utenti rivedano e modifichino i risultati degli stru- menti di AI generativa e non si limitino a copiare e incollare. Creare un processo di revisione e approvazione dei nuovi strumenti di AI generativa e dei casi d’uso. Informare gli utenti che l’azienda si riserva il diritto di monitorare e registrare l’utilizzo di questi strumenti, se parte del proprio piano. Proofpoint - www.proofpoint.com/it Ferdinando Mancini Comeproteggere i dati Riportiamo 5 domande che le aziende dovrebbero porsi a proposito di intelligenza artificiale Fonte: foto Shutterstock intelligenza artificiale S SI È opportuno dotarsi di soluzioni che permettano di bloccare l’accesso degli utenti a siti specifici
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzg4NjYz