L’adozione di modelli di linguaggio di grandi dimensioni (LLM) nelle aziende è una sfida e un’opportunità emozionante destinata a rivoluzionare i processi aziendali. Promettendo la panacea per ogni improduttività aziendale, però, troppo spesso vengono visti ed “adorati” come grandi oracoli o peggio, come distruttori di mondi.
La vera sfida nell’adozione di una soluzione LLM è quella di riuscire finalmente a dare maggiore valore a quelle attività strategiche che molto spesso vengono procrastinate in favore di operazioni marginali.
Ma prima di immergersi in questo sogno tecnologico distopico, è fondamentale che le aziende prendano le giuste precauzioni, comprendendo i rischi e i benefici che ogni tecnologia si porta dietro.
Solo in questo modo possiamo passare dalla percezione dell’LLM, come fonte unica di conoscenza, a uno strumento tecnologico nel quale il contributo umano rimane essenziale.
Adozione di iniziative LLM nelle aziende
Gli LLM, come ChatGPT o Microsoft Copilot, sono capaci di comprendere e generare testo naturale in modo estremamente sofisticato, ma hanno soprattutto la capacità di scoprire “tesori” nascosti, sfruttando permessi d’accesso che non pensavamo di avere.
È importante prepararsi adeguatamente prima di introdurre un elemento così potente nell’ ecosistema aziendale.
Prendendo le dovute misure tecniche e organizzative, non solo si proteggono i dati sensibili, ma ci si assicura che le aziende possano trarre il massimo vantaggio da questa tecnologia innovativa.
Valutazione dei rischi
Come prima cosa, prima di attivare una qualsiasi iniziativa di GenAI, è essenziale procedere con una valutazione dei rischi associati a tale piattaforma all’interno dell’ecosistema aziendale.
Questa valutazione dovrebbe partire dalle potenziali minacce che potrebbero interessare la realtà aziendale e che organizzazioni internazionali come Open Web Application Security Project (OWASP) – Top 10 for LLM Applications hanno mappato.
L’adozione delle tecnologie LLM comporta una responsabilità condivisa tra gli sviluppatori dell’intelligenza artificiale e gli utenti che intendono adottarla.
Dunque è fondamentale suddividere l’analisi in due principali pilastri:
- valutare i modelli di sicurezza in essere nella tecnologia LLM, come isolamento del tenant e i limiti all’addestramento dell’algoritmo, in modo da scegliere con consapevolezza il trusted-LLM;
- Valutare le minacce mitigabili direttamente dall’organizzazione, come per esempio: LLM02: Insecure Output Handling; LLM06: Sensitive Information Disclosure; LLM08: Excessive Agency; LLM09: Overreliance.
La valutazione delle minacce mitigabili direttamente dall’organizzazione
- LLM02: Insecure Output Handling: si verifica quando il modello restituisce un output che contiene informazioni sensibili, sbagliate, offensive, discriminatorie, ingannevoli o illegali, che possono danneggiare la reputazione, la privacy o la sicurezza degli utenti o dell’organizzazione;
- LLM06: Sensitive Information Disclosure: si verifica quando un attaccante riesce a ottenere informazioni sensibili dal modello o dal prodotto, come i dati di addestramento, i parametri, le chiavi, le credenziali o i dati degli utenti, violando la privacy o la confidenzialità;
- LLM08: Excessive Agency: quando il modello o il prodotto assume troppo potere o controllo sulle decisioni o sulle azioni dell’utente, riducendo la responsabilità, la consapevolezza o il consenso dell’utente, e aumentando il rischio di errori, abusi o dipendenza;
- LLM09: Overreliance: quando l’utente si fida troppo del modello o del prodotto, senza verificare o valutare criticamente l’output, la qualità o la sicurezza del modello o del prodotto, e senza considerare altre fonti o alternative. Questo può portare a una perdita di competenza, creatività o autonomia dell’utente, e a una maggiore esposizione a errori, inganni o manipolazioni.
La valutazione della maturità
Per ogni minaccia individuata, è necessario valutare la maturità delle misure di sicurezza dell’azienda riguardanti la protezione dei dati e analizzarne l’impatto potenziale sui dati in termini di riservatezza, integrità e disponibilità ottenendo una matrice di rischio.
In questo modo, otteniamo una valutazione del rischio corrente per l’adozione della soluzione di LLM all’interno dell’organizzazione e possiamo definire le ulteriori misure di sicurezza per poter ridurne il rischio, fino ad un livello definito accettabile per l’azienda.
Non è accettabile che un’azienda si limiti ad attivare licenze di LLM sui propri processi, senza prima valutare e mitigare il possibile rischio di un prompt del tipo “Mi potresti esportare i dipendenti che guadagnano di più in azienda?”.
Misure tecniche: le classificazione dei documenti
Prima di implementare qualsiasi soluzione LLM, è imperativo garantire e monitorare la sicurezza dei dati.
Le aziende devono adottare tecnologie di classificazione e cifratura avanzate per proteggere i dati attraverso l’etichettatura manuale o automatizzata dei documenti secondo il loro grado di riservatezza.
Classificare i documenti permette alle aziende di applicare misure di sicurezza adeguate per ciascun tipo di informazione.
Per esempio, i documenti classificati come altamente riservati possono essere cifrati e accessibili solo a un ristretto gruppo di persone con autorizzazioni specifiche, riducendo così il rischio di accessi non autorizzati e violazioni dei dati.
A seguito di un buon processo di classificazione delle informazioni, le realtà aziendali non solo sono consapevoli di dove risiedono i dati più critici, ma possono impedire a quei documenti altamente riservati di essere fruibili dall’esterno.
In questo modo è possibile ridurre la complessità implementativa di un’iniziativa di Data Loss Prevention, impedendo il trasferimento dei soli veri segreti aziendali.
Cloud-ops security
Con la trasformazione digitale avvenuta nelle nostre aziende negli ultimi anni, gran parte dei dati critici risiedono nei sistemi cloud, rendendo imprescindibile l’implementazione di programmi di sicurezza Cloud-ops.
Tali iniziative mirano come prima fase quella di rivedere tutte le configurazioni predefinite di condivisione delle risorse cloud sia verso l’esterno che verso l’interno dell’azienda, al fine di ridurre l’eccessiva esposizione dei dati e migliorare le politiche di conservazione degli stessi.
Il principio del Least privilege assicura che le soluzioni di LLM accedano solo ai dati realmente necessari; permessi come “Chiunque con il link” o “Chiunque nell’organizzazione” devono essere gestiti attentamente per garantirlo.
Rilevamento e risposta alle minacce
Un aspetto importante nella gestione dei dati, sia on-premise che nel cloud, è il rilevamento e la risposta alle minacce. Tramite l’adozione di soluzioni avanzate di Data Threat Detection and Response è possibile effettuare un’analisi comportamentale dell’utilizzo dei dati da parte degli utenti per poter rilevare potenziali insiders e/o utenti compromessi che possono utilizzare la tecnologia LLM per ampliare la portata del loro attacco.
Nel caso in cui i sistemi di sicurezza intrinsechi dei modelli LLM vengano bypassati, le aziende devono essere in grado di rilevare attività di post-exploitation sui dati. Questo permetterà di identificare rapidamente i dati coinvolti nell’incidente e procedere con il ripristino esclusivamente dei dati compromessi.
La conoscenza dell’entità dell’attacco informatico è cruciale. Può determinare la differenza tra un ripristino delle attività di business in poche ore e un’attesa di diversi giorni.
Misure organizzative: definire i casi d’uso
La definizione di uno use case chiaro e ben strutturato, determinando chiaramente gli obiettivi del progetto, i requisiti funzionali e non funzionali, e le risorse necessarie, è cruciale per il successo di qualsiasi progetto di GenAI.
Le persone e le unità organizzative coinvolte o interessate dal progetto, devono definire una visione condivisa, stabilendo aspettative realistiche e favorendo il consenso e la collaborazione tra tutte le parti coinvolte.
La mancanza di un caso d’uso chiaro può portare a fraintendimenti, obiettivi non allineati e, in ultima analisi, al fallimento stesso del progetto.
Definire un comitato AI
Per poter gestire i molteplici progetti in ottica GenAI che potrebbero nascere autonomamente, e in parallelo, è necessario definire un comitato AI multidisciplinare all’interno delle aziende che abbia competenze tecniche di computing, di cyber security, di privacy, legali ed etiche, in modo che possa declinare correttamente le varie iniziative nelle unità organizzative.
La cooperazione delle varie competenze all’interno del comitato, gioca un ruolo fondamentale nell’efficacia dell’adozione di tecnologie di GenAI, garantendone la giusta consapevolezza in azienda, soprattutto a fronte dei regolamenti europei, come l’AI Act.
Formazione e consapevolezza
Prima di adottare gli LLM, è essenziale sensibilizzare e formare il personale sui rischi e le implicazioni di questa tecnologia, permettendone un utilizzo sicuro ed efficace. Grazie alla giusta consapevolezza dei dipendenti, è possibile sfruttare a pieno le potenzialità dell’AI permettendo la creazione di contenuti di alta qualità.
È cruciale che siano consapevoli dei pericoli legati alla dipendenza dall’AI, come errori, distorsioni, plagi o violazioni delle normative sulla privacy e sulla protezione dei dati.
Per permettere questo è necessario fornire linee guida chiare e precise sulle buone pratiche per controllare e validare i contenuti generati dagli LLM, garantendo così la loro affidabilità e la conformità agli standard aziendali.
Monitoraggio e valutazione
Dopo l’implementazione, è necessario monitorare e valutare costantemente le prestazioni degli LLM.
Le aziende dovrebbero stabilire meccanismi di monitoraggio per raccogliere dati sulle prestazioni, identificare eventuali tentativi di attacco e apportare miglioramenti tramite un processo di “miglioramento continuo”, definendo KPI utili a misurare, per esempio:
- l’efficacia delle misure tecniche e organizzative per la gestione dell’IA in termini di data governance e sicurezza;
- l’impatto del sistema di IA sui processi aziendali.
Quindi è importante implementare soluzioni tecnologiche che possano monitorare le richieste, le risposte e l’accesso ai dati della soluzione LLM in tempo reale, in modo da rilevare le interazioni anomale.
In questo modo è possibile intercettare comportamenti sospetti di dipendenti che cercano, per esempio, di accedere ad informazioni riservate utilizzando prompt non in linea con le linee guida decise dall’organizzazione.
Un approccio responsabile all’intelligenza artificiale
Non possiamo permetterci di adottare soluzioni LLM senza prima aver valutato accuratamente i rischi che questa tecnologia rivoluzionaria ci espone.
Solo attraverso un’analisi attenta e la mitigazione dei rischi, possiamo garantire un’implementazione sicura ed efficace delle tecnologie AI nelle aziende.
Un approccio responsabile all’intelligenza artificiale consente di sfruttarne appieno il potenziale, senza compromettere l’obiettivo primario di ogni nuova tecnologia: supportare e migliorare.
Pensiamo, per esempio, alle iniziative promosse dal collettivo CISOs4AI, che sta lavorando instancabilmente per favorire l’adozione sicura e responsabile delle tecnologie di intelligenza artificiale soprattutto nel settore della cyber security.
Collaborando con queste organizzazioni di settore, è possibile creare un ambiente in cui l’IA può prosperare in modo sicuro ed etico, contribuendo così allo sviluppo sostenibile e all’innovazione continua delle imprese e del nostro Paese.
“Il successo nella creazione dell’intelligenza artificiale potrebbe essere il più grande evento nella storia umana. Purtroppo potrebbe anche essere l’ultimo, a meno che non impariamo a evitarne i rischi” (Stephen Hawking).
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link