Home Intelligenza Artificiale AI generativa: l’uso è triplicato ma i dati sensibili sono a rischio

AI generativa: l’uso è triplicato ma i dati sensibili sono a rischio

Netskope, specialista del Secure Access Service Edge (SASE), ha pubblicato una nuova ricerca da cui emerge che i dati regolamentati (dati che le organizzazioni hanno il dovere legale di proteggere) costituiscono più di un terzo dei dati sensibili condivisi con applicazioni di intelligenza artificiale generativa (AI generativa, genAI), rappresentando un potenziale rischio per le aziende di costose violazioni dei dati.

La nuova ricerca di Netskope Threat Labs rivela che tre quarti delle aziende intervistate ora bloccano completamente almeno un’applicazione di AI generativa: questo dato riflette la volontà dei leader tecnologici aziendali di limitare il rischio di esfiltrazione di dati sensibili. Tuttavia, poiché meno della metà delle organizzazioni applica controlli incentrati sui dati per impedire la condivisione di informazioni sensibili nelle richieste di input degli utenti, la maggior parte è ancora un passo indietro nell’adottare soluzioni avanzate di prevenzione della perdita di dati (DLP) necessarie per abilitare in sicurezza la genAI.

Utilizzando set di dati globali, i ricercatori hanno scoperto che il 96% delle aziende utilizza la genAI, un numero che è triplicato negli ultimi 12 mesi. In media, le aziende ora utilizzano quasi 10 applicazioni di AI generativa, rispetto alle 3 dell’anno scorso, con l’1% degli utenti che ora utilizza una media di 80 applicazioni, in aumento rispetto alle 14. Con l’aumento dell’utilizzo, le aziende hanno registrato un aumento della condivisione del codice sorgente proprietario all’interno delle applicazioni genAI, che rappresenta il 46% di tutte le violazioni documentate di policy DLP. Queste dinamiche mutevoli complicano il modo in cui le aziende controllano il rischio, suggerendo la necessità di un impegno verso la DLP (data loss prevention) più solido.

Ci sono segnali positivi di gestione proattiva del rischio nei controlli di sicurezza e di perdita dei dati che le organizzazioni stanno applicando: ad esempio, il 65% delle aziende ora implementa il coaching per gli utenti in tempo reale per guidare le interazioni degli utenti con le applicazioni di AI generativa. Secondo la ricerca, un efficace coaching degli utenti ha svolto un ruolo cruciale nel mitigare i rischi relativi ai dati, spingendo il 57% degli utenti a modificare le proprie azioni dopo aver ricevuto degli alert.

“La protezione della genAI richiede ulteriori investimenti e maggiore attenzione poiché il suo utilizzo permea le aziende, senza segnali di rallentamento nel breve periodo”, ha affermato James Robinson, Chief Information Security Officer, Netskope. “Le aziende devono riconoscere che i risultati ottenuti dalla genAI possono inavvertitamente esporre informazioni sensibili, diffondere disinformazione o persino introdurre contenuti malevoli. Richiede un solido approccio alla gestione del rischio per salvaguardare i dati, la reputazione e la continuità aziendale”.

Dal “Cloud and Threat Report: AI Apps in the Enterprise” di Netskope sono emersi anche altri risultati:

  • ChatGPT rimane l’applicazione più popolare, utilizzata da oltre l’80% delle aziende.
  • Microsoft Copilot ha registrato la crescita più significativa nell’utilizzo dal suo lancio nel gennaio 2024, pari al 57%.
  • Il 19% delle organizzazioni ha imposto un divieto totale su GitHub CoPilot.

AI generativa: punti chiave per le imprese

Netskope consiglia alle imprese di rivedere, adattare e personalizzare i propri framework di rischio specificamente per l’intelligenza artificiale o la genAI utilizzando iniziative come il framework di gestione del rischio AI del NIST. I passaggi tattici specifici per affrontare il rischio derivante dalla genAI includono:

  • Conoscere lo stato attuale: valutare gli usi esistenti dell’intelligenza artificiale e dell’apprendimento automatico, delle pipeline di dati e delle applicazioni genAI. Identificare le vulnerabilità e le lacune nei controlli di sicurezza.
  • Implementare controlli fondamentali: stabilire misure di sicurezza fondamentali, come controlli di accesso, meccanismi di autenticazione e crittografia.
  • Pianificare controlli avanzati: oltre alle nozioni di base, sviluppare una tabella di marcia per controlli di sicurezza avanzati. Occorre prendere in considerazione la modellazione delle minacce, il rilevamento delle anomalie, il monitoraggio continuo e il rilevamento comportamentale per identificare i movimenti di dati sospetti negli ambienti cloud verso le applicazioni genAI che si discostano dai normali modelli utente.
  • Misurare, avviare, rivedere, ripetere: valutare regolarmente l’efficacia delle misure di sicurezza. Adattarle e perfezionarle in base alle esperienze del mondo reale e alle minacce emergenti.

Sul sito di Netskope è possibile consultare la ricerca completa Cloud and Threat Report: AI Apps in the Enterprise. Per ulteriori informazioni sulle minacce cloud e sugli ultimi risultati di Netskope Threat Labs, è possibile visitare il Threat Research Hub di Netskope.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php