{"id":7302,"date":"2024-10-09T08:00:00","date_gmt":"2024-10-09T06:00:00","guid":{"rendered":"https:\/\/blog.besharp.it\/?p=7302"},"modified":"2024-10-09T12:38:27","modified_gmt":"2024-10-09T10:38:27","slug":"comprendere-e-gestire-i-rischi-nei-progetti-di-generative-ai-come-farsi-furbi-in-un-mondo-artificialmente-intelligente","status":"publish","type":"post","link":"https:\/\/blog.besharp.it\/it\/comprendere-e-gestire-i-rischi-nei-progetti-di-generative-ai-come-farsi-furbi-in-un-mondo-artificialmente-intelligente\/","title":{"rendered":"Comprendere e gestire i rischi nei progetti di Generative AI: come farsi furbi in un mondo “Artificialmente Intelligente”"},"content":{"rendered":"\n

Introduzione<\/h2>\n\n\n\n

Negli ultimi anni, l’innovazione tecnologica pi\u00f9 discussa \u00e8 senza dubbio l’Intelligenza Artificiale Generativa, spesso menzionata con la sua pi\u00f9 famosa abbreviazione: GenAI.<\/p>\n\n\n\n

La prima volta che ognuno di noi ha avuto occasione di utilizzarla, siamo rimasti tutti enormemente colpiti dalla sua straordinaria capacit\u00e0 di generare immagini e brevi video, riassumere testi e persino intrattenere conversazioni alla pari con un essere umano!<\/p>\n\n\n\n

Questa particolare abilit\u00e0 nel dialogo \u00e8 resa possibile dai cosiddetti Large Language Models (LLMs).
Ad oggi sono disponibili tanti LLM, sviluppati da diverse aziende: GPT di OpenAI, BERT di Google AI, Claude di Anthropic, LLaMA di Meta e molti altri.<\/p>\n\n\n\n

Ma che dire di l’entusiasmante mondo di AWS?<\/p>\n\n\n\n

Anche AWS ha il proprio modello, chiamato Titan, che \u00e8 pronto all\u2019uso per diversi scopi: generazione automatica di testo o di riassunti, ricerca semantica, generazione di immagini e persino utilizzabile per progetti che sfruttano la Retrieval Augmented Generation (RAG).
Oltre a ci\u00f2, AWS permette l’integrazione di molti altri LLM e Foundation Models attraverso servizi specifici come AWS SageMaker o in modo pi\u00f9 diretto con AWS Bedrock.<\/p>\n\n\n\n

Sembra tutto pronto per incorporare queste fantastiche nuove capacit\u00e0 nei nostri progetti… ma per quanto riguarda la sicurezza? <\/p>\n\n\n\n

L’Intelligenza Artificiale Generativa porta con s\u00e9 nuovi rischi di cui preoccuparsi?<\/p>\n\n\n\n

La risposta \u00e8 ovviamente \u201cs\u00ec\u201d. <\/p>\n\n\n\n

In questo articolo discuteremo alcuni dei principali potenziali attacchi, come mitigare i rischi derivanti da essi e come prevenire possibili danni e perdite di dati sensibili.<\/p>\n\n\n\n

I maggiori rischi<\/h2>\n\n\n\n

Per descrivere brevemente i principali rischi per un progetto GenAI che implementa un LLM, faremo riferimento all’Open Worldwide Application Security Project (OWASP)<\/a>.<\/p>\n\n\n\n

Di seguito, presentiamo le 10 principali minacce in questo campo, come indicato nel sito web di OWASP:<\/p>\n\n\n\n

01: Prompt Injection<\/strong><\/p>\n\n\n\n

La manipolazione degli LLM tramite input modificati pu\u00f2 portare ad accessi non autorizzati, violazioni dei dati e compromissione del processo decisionale.<\/p>\n\n\n\n

02: Insecure Output Handling<\/strong><\/p>\n\n\n\n

Trascurare di convalidare gli output dell’LLM pu\u00f2 portare a exploit di sicurezza, tra cui l’esecuzione di codice che compromette i sistemi ed espone dati.<\/p>\n\n\n\n

03: Training Data Poisoning<\/strong><\/p>\n\n\n\n

La manomissione dei dati di training pu\u00f2 compromettere i modelli LLM, portando a risposte che possono mettere a rischio la sicurezza, l’accuratezza o il comportamento etico.<\/p>\n\n\n\n

04: Model Denial of Service<\/strong><\/p>\n\n\n\n

Il sovraccarico degli LLM con operazioni ad alto consumo di risorse possono causare interruzioni del servizio e un aumento dei costi.<\/p>\n\n\n\n

05: Supply Chain Vulnerabilities<\/strong><\/p>\n\n\n\n

La dipendenza da componenti, servizi o set di dati compromessi mina l’integrit\u00e0 del sistema, causando violazioni dei dati e guasti al sistema.<\/p>\n\n\n\n

06: Sensitive Information Disclosure<\/strong><\/p>\n\n\n\n

La mancata protezione dalla divulgazione di informazioni sensibili negli output di LLM pu\u00f2 comportare conseguenze legali o una perdita di vantaggio competitivo.<\/p>\n\n\n\n

07: Insecure Plugin Design<\/strong><\/p>\n\n\n\n

I plugin LLM che elaborano input non attendibili e hanno un insufficiente controllo degli accessi rischiano gravi intromissioni, come l’esecuzione di codice remoto.<\/p>\n\n\n\n

08: Excessive Agency<\/strong><\/p>\n\n\n\n

Concedere ai LLM un’autonomia d’azione incontrollata pu\u00f2 portare a conseguenze indesiderate, mettendo a rischio l’affidabilit\u00e0 e la privacy.<\/p>\n\n\n\n

09: Overreliance<\/strong><\/p>\n\n\n\n

L’incapacit\u00e0 di valutare criticamente i risultati dell’LLM pu\u00f2 portare a un processo decisionale compromesso, a vulnerabilit\u00e0 della sicurezza e a responsabilit\u00e0 legali.<\/p>\n\n\n\n

10: Model Theft<\/strong><\/p>\n\n\n\n

L’accesso non autorizzato a modelli proprietari di grandi dimensioni rischia il furto, il vantaggio competitivo e la diffusione di informazioni sensibili.<\/p>\n\n\n\n

Sebbene tutti i rischi siano rilevanti e sia importante essere consapevoli di ciascuno di essi, ci concentreremo solamente su alcuni di loro, a nostro parere, particolarmente interessanti e specifici del mondo GenAI.<\/p>\n\n\n\n

Mostreremo come potete proteggere la vostra innovativa infrastruttura da attacchi dannosi utilizzando strategie intelligenti e personalizzate o semplicemente sfruttando le funzionalit\u00e0 AWS pronte all’uso.<\/p>\n\n\n\n

Prompt Injection<\/h4>\n\n\n\n

Caratteristiche dell’attacco<\/strong><\/p>\n\n\n\n

Questo tipo di attacco coinvolge la manipolazione del nostro modello sfruttando la capacit\u00e0 dell LLM di interpretare prompt in linguaggio naturale per generare output.
Se il modello interpreta tutte le istruzioni come richieste valide, incluse quelle progettate per manipolarlo, i risultati possono facilmente essere non sicuri o addirittura pericolosi.
Per chi \u00e8 familiare con i database, questo attacco pu\u00f2 essere paragonato al \u201cSQL injection\u201d, in cui query SQL malevole sono scritte ed eseguite per manipolare i database. In questo caso \u00e8 l’LLM stesso che viene ingannato nel generare risposte dannose o inaspettate.<\/p>\n\n\n\n

Se un attaccante crea un prompt che aggira le restrizioni o che sollecita informazioni sensibili, si pu\u00f2 arrivare ad ottenere questi output indesiderati:<\/p>\n\n\n\n