Corso Intelligenza Artificiale e Sicurezza

Condividi su Linkedin Condividi su Whatsapp Condividi tramite Email
Condividi su Twitter Condividi su Facebook Condividi su Instaram


AI Governance & Risk Management in Azienda



Il corso è progettato per approfondire la gestione della sicurezza nell'AI. Nel percorso formativo saranno esaminati i fondamenti della sicurezza informatica legati all'Intelligenza Artificiale, l'identificazione dei rischi comuni e le definizioni operative di adeguamento al framework normativo vigente (protocolli, procedure). 

Nello specifico, il corso di formazione intende fornire conoscenze e strumenti pratici per: integrare la sicurezza AI nella governance aziendale, definire responsabilità e strategie di mitigazione, stipulare contratti con fornitori terzi (fornitori di sistemi e tecnologie AI) e implementare audit efficaci. 

 

Obiettivi

  • Comprendere gli obblighi normativi (GDPR, DORA) e attuare un piano d'azione per la conformità
  • Comprendere le basi della sicurezza informatica legata all'uso dell'IA
  • Identificare i rischi comuni quando si sviluppano o si utilizzano modelli AI
  • Acquisire le definizioni operative dell'AI Act per le aziende
  • Gestire correttamente i dati personali e sensibili usati nei sistemi AI
  • Garantire conformità normativa (GDPR, AI Act, ISO/IEC 27001)
  • Comprendere e implementare DPIA e FRIA
  • Integrare la sicurezza AI nella governance aziendale
  • Definire responsabilità, protocolli e strategie di mitigazione
  • Implementare contrattualistica e audit efficaci

 

Destinatari

Il corso di formazione Intelligenza Artificiale e Sicurezza si rivolge alle figure professionali coinvolte nel delicato processo di integrazione della sicurezza AI nella governance aziendale - Il percorso di training si svolge online:

  • Professionisti della sicurezza informatica
  • Data Protection Officers (DPO)
  • Responsabili della conformità e legali
  • Sviluppatori e Ingegneri AI
  • Manager e decisori aziendali
  • Auditor interni ed esterni

 

Contenuti

Fondamenti di Sicurezza nell'Intelligenza Artificiale

  • Cos'è l'intelligenza artificiale e come viene integrata nei processi aziendali
  • Definizioni operative dell'AI Act per le aziende
  • Definizione giuridica di "sistema di intelligenza artificiale" secondo il Regolamento (UE) 2024/1689
  • Ruoli aziendali: quando l'azienda è "fornitore", "deployer", "importatore" o "distributore"
  • Classificazione pratica dei sistemi AI aziendali: rischio inaccettabile, alto rischio, rischio limitato, rischio minimo

  • Introduzione alla sicurezza nell'IA: vulnerabilità comuni
  • Tipologie di attacchi legati all'AI (es: avvelenamento dei dati, model inversion, adversarial examples)
  • La differenza tra sicurezza dell'IA e IA per la sicurezza

Protezione dei Dati e Conformità

  • Raccolta e trattamento sicuro dei dati per l'addestramento

  • AI Act e GDPR - Gestione Integrata per l'Azienda
    • Obblighi complementari tra AI Act e GDPR nella gestione aziendale
    • Gestione dei diritti degli interessati quando l'azienda utilizza AI  
    • Coordinamento tra diverse normative

  • DPIA e FRIA: Valutazioni di Impatto Integrate
    • Data Protection Impact Assessment (DPIA) per sistemi AI
    • Quando è obbligatoria per l'azienda
    • Metodologia di conduzione DPIA per sistemi AI
    • Scenari di rischio specifici dell'AI da valutare
    • Fundamental Rights Impact Assessment (FRIA)
    • Ambito di applicazione e soggetti obbligati
    • Differenze e sovrapposizioni con la DPIA
    • Metodologia multifase per condurre FRIA
    • Integrazione sinergica DPIA-FRIA

  • Bias e privacy: implicazioni legali e reputazionali
  • Sicurezza delle pipeline AI (dati, modelli, output)
  • Documentazione e auditabilità dei sistemi AI

AI Governance, Responsabilità e Mitigazione dei Rischi

AI Risk Management - Approcci e Framework (es. NIST AI RMF)

  • Standard ISO 42001: Sistema di Gestione dell'Intelligenza Artificiale
  • Principi e requisiti della ISO 42001 per l'auditing dei sistemi AI
  • Integrazione tra ISO 42001 e ISO 27001: sicurezza informatica e gestione AI
  • Implementazione pratica

Contrattualistica Aziendale AI

  • Contratti con fornitori di tecnologie AI
  • Aspetti da considerare nei contratti tra azienda e fornitori di sistemi AI
  • Clausole specifiche per limitare, perimetrare o disciplinare l'uso dell'AI in azienda
  • Distribuzione di responsabilità tra azienda e fornitori tecnologici
  • Gestione dei dati aziendali nelle implementazioni AI
  • Clausole di trasparenza e identificazione dell'uso di AI

AI Due Diligence e Audit Aziendali

  • Compliance audit strutturato per aziende
  • Identificazione e mappatura di tutti i sistemi AI utilizzati in azienda

Gestione del Rischio di Responsabilità Aziendale

  • Responsabilità dell'azienda per danni da AI
  • Scenario normativo attuale (quadro europeo)
  • Come l'azienda può trovarsi esposta a responsabilità per danni AI
  • Responsabilità da prodotto difettoso per aziende che commercializzano prodotti AI
  • Sistema di responsabilità condivisa nella "catena del valore" aziendale AI

Red Teaming e Auditing dei Modelli AI

  • Sicurezza del ciclo di vita dei modelli: dal design al deployment

 

Esercitazioni

  • Analisi di casi reali per aziende
  • Test e Q&A