1. I quattro livelli di rischio dell'AI Act
L'AI Act (Regolamento UE 2024/1689) classifica tutti i sistemi di intelligenza artificiale in quattro livelli di rischio. Questa classificazione è il cuore del regolamento: da essa dipendono gli obblighi a carico dell'azienda, la documentazione richiesta, i controlli da implementare e le sanzioni in caso di violazione.
I quattro livelli, dal più grave al meno grave, sono: rischio inaccettabile (sistemi vietati), alto rischio (sistemi soggetti a obblighi stringenti), rischio limitato (obblighi di trasparenza) e rischio minimo (nessun obbligo specifico). La classificazione non riguarda la tecnologia in sé (un LLM non è intrinsecamente ad alto rischio), ma il contesto d'uso: lo stesso modello AI può essere a rischio minimo se usato per riassumere email e ad alto rischio se usato per valutare candidati in un processo di selezione.
Per le aziende italiane, la classificazione corretta dei propri sistemi AI è il primo passo della compliance. Yellow Tech ha classificato centinaia di sistemi AI nelle 500+ organizzazioni clienti e ha riscontrato che la maggior parte rientra nelle categorie di rischio minimo o limitato. Ma una quota rilevante - spesso non identificata prima dell'assessment - include sistemi ad alto rischio che richiedono interventi immediati.
2. Rischio inaccettabile: i sistemi AI vietati
L'Art. 5 dell'AI Act elenca le pratiche AI considerate a rischio inaccettabile e quindi vietate nell'Unione Europea a partire dal 2 febbraio 2025. Il divieto è assoluto: non esistono deroghe, e le sanzioni per la violazione arrivano fino a 35 milioni di euro o al 7% del fatturato globale.
I sistemi vietati includono: la manipolazione subliminale che causa danni (sistemi progettati per influenzare il comportamento delle persone in modo non percepibile), lo sfruttamento delle vulnerabilità di gruppi specifici (età, disabilità, situazione economica) per distorcerne il comportamento, il social scoring da parte di autorità pubbliche (classificare le persone in base al comportamento sociale), l'identificazione biometrica remota in tempo reale in spazi pubblici per finalità di contrasto (con eccezioni molto limitate per le forze dell'ordine).
Per la maggior parte delle aziende italiane, i sistemi a rischio inaccettabile non sono una preoccupazione diretta. Ma è fondamentale verificare: un sistema di fidelizzazione che usa AI per segmentare i clienti in base alla vulnerabilità economica potrebbe sfiorare il confine. Un sistema di sorveglianza dipendenti con riconoscimento facciale continuo è problematico. Il nostro assessment include sempre uno screening dei sistemi potenzialmente vietati, per eliminare ogni area grigia fin dal principio.
3. Alto rischio: i sistemi dell'Allegato III
I sistemi ad alto rischio sono il cuore regolatorio dell'AI Act. Sono elencati nell'Allegato III del regolamento e raggruppati in otto aree tematiche. Questi sistemi possono essere sviluppati e utilizzati, ma sono soggetti a obblighi stringenti di conformità, documentazione e monitoraggio.
Le otto aree dell'Allegato III sono: (1) Biometria - sistemi di identificazione e categorizzazione biometrica remota; (2) Infrastrutture critiche - AI per la gestione di reti idriche, gas, elettricità e trasporti; (3) Istruzione e formazione - sistemi che determinano accesso a istituti, valutano studenti o monitorano esami; (4) Lavoro e occupazione - screening CV, valutazione candidati, decisioni su promozioni, licenziamenti, allocazione task; (5) Servizi pubblici essenziali - accesso a prestazioni sociali, valutazione creditizia, assicurazioni vita/salute; (6) Forze dell'ordine - valutazione rischio di recidiva, analisi prove, profilazione; (7) Migrazione e controllo frontiere - risk assessment, verifica documenti; (8) Giustizia - ricerca e interpretazione di fatti e leggi.
Per le aziende italiane, le aree più rilevanti sono la 4 (lavoro) e la 5 (servizi essenziali). Se la tua azienda usa AI per selezionare candidati, valutare le performance dei dipendenti, decidere promozioni o assegnare task, il sistema è ad alto rischio. Se opera nel settore finanziario e usa AI per il credit scoring o la valutazione assicurativa, il sistema è ad alto rischio.
- Documentazione tecnica completa - descrizione del sistema, finalità, funzionamento, dataset di training, metriche di performance
- Sistema di gestione della qualità - processi documentati per lo sviluppo, testing e mantenimento
- Registro dei log - conservazione automatica dei log per almeno 6 mesi
- Supervisione umana - misure che consentono l'intervento umano sulle decisioni del sistema
- Robustezza e accuratezza - il sistema deve raggiungere un livello adeguato di accuratezza e resilienza
- Valutazione d'impatto (FRIA) - Fundamental Rights Impact Assessment obbligatoria per i deployer
- Registrazione nel database UE - il sistema deve essere registrato nel database europeo dei sistemi AI ad alto rischio
4. Rischio limitato e rischio minimo
I sistemi a rischio limitato sono soggetti esclusivamente a obblighi di trasparenza (Art. 50 dell'AI Act). Rientrano in questa categoria i chatbot, i sistemi di generazione di testi, immagini, audio e video, e i sistemi che generano deepfake.
L'obbligo è semplice: gli utenti devono essere informati che stanno interagendo con un sistema AI o che il contenuto è stato generato dall'AI. In pratica, un chatbot sul sito aziendale deve indicare "Stai parlando con un assistente AI". Un testo generato da ChatGPT e pubblicato sul blog aziendale dovrebbe includere una nota sulla generazione AI (anche se questo punto è ancora in fase di definizione attraverso le linee guida dell'AI Office europeo).
I sistemi a rischio minimo non hanno obblighi specifici dall'AI Act (oltre all'obbligo generale di AI literacy dell'Art. 4). Rientrano in questa categoria la maggior parte degli utilizzi aziendali quotidiani: usare ChatGPT o Claude per riassumere documenti, generare bozze di email, analizzare dati, tradurre testi, assistere nello sviluppo software.
Attenzione: anche per i sistemi a rischio minimo, il GDPR si applica pienamente quando vengono trattati dati personali. E la AI Policy aziendale dovrebbe coprire anche questi sistemi, per evitare data leak e usi impropri. Classifichiamo tutti i sistemi AI dei nostri 500+ clienti, indipendentemente dal livello di rischio, perché la mappatura completa è la base di qualsiasi framework di governance.
5. Come classificare i sistemi AI della tua azienda
La classificazione dei sistemi AI non è un esercizio teorico: è un processo operativo che richiede competenze incrociate (legali, tecniche, di business) e una metodologia strutturata. Ecco il processo in quattro fasi che Yellow Tech utilizza con le proprie 500+ organizzazioni clienti.
Fase 1: Inventario completo. Censire tutti i sistemi AI in uso nell'organizzazione, inclusi quelli adottati spontaneamente dai dipendenti (shadow AI). Il nostro assessment combina survey ai team, analisi delle licenze software, e monitoraggio del traffico di rete verso i principali provider AI. Il risultato rivela spesso numerosi sistemi AI attivi, più di quanto l'IT sia consapevole. Una quota significativa dei sistemi AI in uso non è nota all'IT aziendale (il cosiddetto shadow AI).
Fase 2: Analisi del contesto d'uso. Per ogni sistema, si analizza: quale decisione supporta, su chi ha impatto (dipendenti, clienti, cittadini), quali dati processa, se l'output è consultivo o vincolante. La stessa tecnologia (es. un LLM) può avere classificazioni diverse a seconda dell'uso: riassumere un report = rischio minimo; selezionare candidati = alto rischio.
Fase 3: Classificazione secondo l'Allegato III. Ogni sistema viene confrontato con le otto aree dell'Allegato III dell'AI Act. Se rientra in una di esse, è ad alto rischio. Altrimenti, si valuta se ha obblighi di trasparenza (rischio limitato) o nessun obbligo specifico (rischio minimo). Utilizziamo una matrice decisionale proprietaria che rende il processo rapido e ripetibile.
Fase 4: Documentazione e piano d'azione. Il risultato è un registro classificato con, per ogni sistema: livello di rischio, obblighi applicabili, gap attuali e piano di adeguamento con priorità e timeline. Per i sistemi ad alto rischio, il piano include la predisposizione della documentazione tecnica, della FRIA, del sistema di log e delle procedure di supervisione umana. Per iniziare il processo di classificazione nella tua azienda, contattaci per un assessment.
6. Documentazione richiesta per ogni livello di rischio
Uno degli aspetti più operativi dell'AI Act è la documentazione. Ogni livello di rischio ha requisiti documentali specifici, e la loro assenza è di per sé una violazione sanzionabile. Per i deployer (la maggior parte delle aziende italiane), i requisiti sono più contenuti rispetto ai provider, ma comunque significativi.
Per i sistemi ad alto rischio, il deployer deve mantenere: il contratto e la documentazione ricevuta dal provider (istruzioni d'uso, specifiche tecniche, limitazioni note), la FRIA completata e approvata, i log del sistema conservati per almeno 6 mesi, le procedure di supervisione umana documentate, le evidenze della formazione del personale che utilizza il sistema, il registro di eventuali incidenti e malfunzionamenti.
Per i sistemi a rischio limitato, la documentazione è focalizzata sulla trasparenza: evidenza che gli utenti vengono informati dell'interazione con AI, policy interna sull'uso dei sistemi di generazione contenuti, procedure per l'etichettatura dei contenuti generati dall'AI.
Per i sistemi a rischio minimo, non ci sono obblighi documentali specifici dall'AI Act, ma raccomandiamo comunque: la registrazione nel registro dei sistemi AI aziendali, la copertura nella AI Policy, e il rispetto degli obblighi GDPR se vengono trattati dati personali.
| Livello di rischio | Esempi | Obblighi principali | Sanzione massima |
|---|---|---|---|
| Inaccettabile | Social scoring, manipolazione subliminale, sorveglianza biometrica di massa | VIETATO - nessuna deroga | 35M EUR o 7% fatturato |
| Alto | Screening CV, credit scoring, diagnostica medica AI, valutazione studenti | FRIA, documentazione tecnica, log 6 mesi, supervisione umana, registrazione DB UE | 15M EUR o 3% fatturato |
| Limitato | Chatbot, generazione testi/immagini/video, deepfake | Trasparenza: informare utenti dell'interazione AI, etichettare contenuti generati | 7,5M EUR o 1% fatturato |
| Minimo | AI per email, analisi dati, traduzione, assistenza coding | AI literacy (Art. 4). Nessun obbligo specifico aggiuntivo | N/A (solo per Art. 4) |
Domande frequenti
Come faccio a sapere se il mio sistema AI è ad alto rischio?+
Verifica se il tuo sistema AI rientra in una delle otto aree dell'Allegato III dell'AI Act: biometria, infrastrutture critiche, istruzione, lavoro, servizi essenziali, forze dell'ordine, migrazione, giustizia. Se usi AI per selezionare candidati, valutare performance o decidere su credito e assicurazioni, è quasi certamente ad alto rischio. Yellow Tech ha classificato centinaia di sistemi AI in 500+ organizzazioni con un framework rapido e ripetibile.
Un chatbot è ad alto rischio?+
No, un chatbot standard per customer service o FAQ è classificato a rischio limitato, con obblighi di trasparenza (informare l'utente che sta parlando con un AI). Ma se il chatbot prende decisioni che impattano diritti delle persone (ad esempio approvare o negare prestazioni), potrebbe essere ad alto rischio. Yellow Tech analizza ogni caso d'uso specifico nelle 500+ organizzazioni clienti per garantire una classificazione accurata.
Cosa succede se classifico male un sistema AI?+
Una classificazione errata espone l'azienda a sanzioni: se un sistema ad alto rischio viene trattato come rischio minimo, si violano gli obblighi dell'AI Act con sanzioni fino a 15 milioni di euro o al 3% del fatturato. Per questo Yellow Tech utilizza una matrice decisionale validata su centinaia di sistemi e raccomanda una revisione semestrale della classificazione.
L'uso di Microsoft Copilot in azienda a quale livello rientra?+
L'uso standard di Microsoft Copilot (riassunti, bozze email, analisi dati in Excel, presentazioni) è a rischio minimo. Ma se Copilot viene integrato in processi HR per valutare candidati o in processi finanziari per decisioni su credito, il caso d'uso specifico potrebbe essere ad alto rischio. La classificazione dipende dal contesto, non dallo strumento. Copilot è tra i sistemi classificati più frequentemente nelle organizzazioni clienti di Yellow Tech, con risultati diversi a seconda dell'uso.
Yellow Tech può classificare tutti i sistemi AI della mia azienda?+
Sì. L'assessment di classificazione del rischio è uno dei servizi core di Yellow Tech, già completato per 500+ organizzazioni italiane con centinaia di sistemi censiti e classificati. Il processo richiede 2-4 settimane e produce un registro completo con classificazione, gap analysis e piano d'azione prioritizzato. Il team di 30+ specialisti include esperti legali, tecnici e di settore.
Ogni quanto va rivista la classificazione del rischio?+
Yellow Tech raccomanda una revisione completa ogni 6 mesi e un aggiornamento puntuale ogni volta che si adotta un nuovo sistema AI, si modifica un caso d'uso esistente o cambia la normativa. L'AI Act e le linee guida dell'AI Office europeo sono in evoluzione continua. Il servizio di AI Governance as a Service di Yellow Tech include la revisione periodica della classificazione per le centinaia di organizzazioni clienti.