L’AI Act è il nuovo regolamento europeo sull’AI, la prima legge globale pensata per garantire che i sistemi di AI siano sicuri, trasparenti e rispettosi dei diritti fondamentali. L’AI Act adotta un approccio basato sul rischio, vietando sistemi inaccettabili e imponendo requisiti stringenti per quelli ad alto rischio, con sanzioni fino a 35 milioni di euro o il 7% del fatturato.
Questa cornice tocca in prima persona anche chi sviluppa o implementa Assistenti Virtuali. In questo articolo approfondiremo le implicazioni del regolamento, analizzeremo gli obblighi per i diversi livelli di rischio, forniremo una checklist operativa e mostreremo come la nostra piattaforma può supportare le aziende nel percorso di adeguamento.
AI Act, le scadenze da segnare in agenda
Il calendario di attuazione dell’AI Act prevede che ogni sei mesi circa entri in vigore un pacchetto di obblighi che impatta direttamente chi sviluppa o utilizza Assistenti Virtuali. Dal 2 febbraio 2025 sono già operativi due elementi cardine, il divieto assoluto dei sistemi classificati a rischio inaccettabile e l’obbligo di garantire AI‑literacy al personale. Non si tratta soltanto di un corso interno, le aziende devono dimostrare che chi progetta, integra o supervisiona l’AI possiede competenze adeguate sui rischi e sulle mitigazioni.
Agosto 2025 - Governance e General‑Purpose AI
La seconda scadenza, fissata al 2 agosto 2025, è cruciale per chi sfrutta modelli linguistici di grandi dimensioni. I fornitori dovranno produrre documentazione tecnica, registrarsi presso l’AI Office europeo e sottoporre i modelli a test di sicurezza periodici. Chi integra questi modelli nei propri Assistenti Virtuali dovrà a sua volta verificare la conformità del fornitore, tenere traccia delle versioni adottate e aggiornare le valutazioni del rischio ogni volta che il modello cambia.
Agosto 2026 - Piena applicazione per l’alto rischio
Un anno dopo, dal 2 agosto 2026, scatteranno gli obblighi completi per i sistemi classificati ad alto rischio, valutazione d’impatto, gestione del ciclo di vita dei dati, supervisione umana, logging dettagliato e segnalazione degli incidenti. Le autorità nazionali di sorveglianza saranno operative e potranno avviare ispezioni e comminare sanzioni.
Mappa delle categorie di rischio dei sistemi AI
L’AI Act suddivide i sistemi di AI in quattro categorie di rischio, ciascuna con regole diverse.
Sistemi AI a rischio inaccettabile
Include usi di AI proibiti perché considerati una minaccia grave per sicurezza e diritti. Esempi sono sistemi di punteggio sociale o algoritmi che manipolano il comportamento umano in modo dannoso. Queste applicazioni non possono essere immesse sul mercato europeo.
Sistemi AI a rischio alto
I sistemi di AI che possono avere un impatto rilevante sulla salute, la sicurezza o i diritti fondamentali, come quelli utilizzati per prendere decisioni in ambito medico, finanziario, lavorativo o di pubblica sicurezza, possono essere immessi sul mercato solo se rispettano rigorosi requisiti di progettazione e controllo. Nella maggior parte dei casi, il rispetto di questi requisiti viene verificato direttamente dal fornitore attraverso controlli interni, senza l’intervento di enti esterni. Solo per alcune categorie specifiche è prevista una valutazione indipendente da parte di terzi, come indicato nell’Allegato III dell’AI Act.
Sistemi AI a rischio limitato
Sistemi con rischi contenuti per gli utenti, soggetti solo ad alcuni obblighi di trasparenza. In questa categoria rientrano la maggior parte degli Assistenti Virtuali per il customer service o l’assistenza. Chi interagisce con un assistente virtuale deve sapere che sta parlando con un’AI, non con una persona. Anche i sistemi generativi che producono testi o immagini, devono segnalarne la natura artificiale, ad esempio con disclaimer o watermark, soprattutto se usati in ambiti informativi pubblici.
Rischio minimo o assente nell’uso dell’AI
Comprende la gran parte delle applicazioni di AI quotidiane che non pongono rischi significativi, come filtri antispam, motori di raccomandazione basilari o videogiochi con AI. Per queste applicazioni non sono previsti obblighi specifici, ma è comunque raccomandata l’adozione di buone pratiche (es. valutazioni etiche, sicurezza informatica di base) anche per i sistemi di questa categoria, per mantenere un approccio responsabile verso l’AI.
È dunque fondamentale per i decision maker aziendali mappare fin da subito i propri casi d’uso di AI conversazionale rispetto a queste categorie, così da capire quali regole specifiche si applicano.

Figura: Categorizzazione visiva dei livelli di rischio introdotti dall'AI Act.
Checklist per l’adeguamento alla compliance dell’AI Act
Una volta chiarito il profilo di rischio del vostro assistente virtuale, occorre verificare che siano soddisfatti i requisiti di compliance previsti dall’AI Act.
Data lineage e documentazione
Mantenere una documentazione completa del sistema di AI. Questo include informazioni sui dati di addestramento e sul loro lineage (provenienza e qualità), sulle metodologie di sviluppo e test, nonché sul funzionamento e lo scopo del modello. Per i sistemi più avanzati, l’AI Act richiede documentazione tecnica completa, report, model card con limiti e bias noti, e manuali d’uso chiari per chi li adotta.
Human-in-the-loop (supervisione umana)
Garantire che vi sia un adeguato coinvolgimento umano nel ciclo di vita e nell’uso dell’assistente virtuale. Per gli Assistenti Virtuali a più alto rischio questo significa predisporre misure di oversight umano, ad esempio, operatori che monitorano le conversazioni, possibilità di intervento manuale o di override nelle decisioni cruciali, e procedure di escalation a un umano per le richieste che escono dai parametri prestabiliti. L’AI Act, infatti, impone per i sistemi ad alto rischio delle misure di supervisione umana tali da prevenire o mitigare risultati indesiderati. Anche in contesti di rischio limitato, è buona prassi offrire all’utente un fallback umano, come la possibilità di parlare con un operatore reale su richiesta o in caso di insoddisfazione, e monitorare periodicamente i log delle chat per identificare eventuali problemi.
Testing e mitigazione dei bias
Implementare un processo continuo di valutazione dei rischi e dei bias del sistema AI, sia prima del deploy sia durante l’uso. In fase di sviluppo, occorre effettuare test rigorosi sulla qualità dei dati e sul comportamento del modello conversazionale, per individuare bias discriminatori o errori sistematici. L’AI Act richiede l’uso di dati di training di alta qualità, rappresentativi e privi di errori per minimizzare i rischi di risultati discriminatori. Ad esempio, se si addestra un assistente virtuale per supporto HR, bisogna assicurarsi che non perpetui pregiudizi di genere o etnia nelle risposte. Test su dataset diversificati aiutano a individuare bias. Se presenti, vanno corretti bilanciando i dati, affinando i prompt o limitando certe risposte.
Oltre ai bias, è necessario testare la robustezza del sistema, come reagisce a input errati o maliziosi, qual è il tasso di allucinazioni o risposte scorrette, etc., attuando correzioni per migliorarne l’accuratezza.
Infine, predisporre revisioni periodiche post-deployment. L’AI Act incoraggia un monitoraggio continuo dei sistemi per verificare che restino conformi e sicuri nel tempo. Questo può includere audit annuali delle performance e controlli ad hoc dopo ogni aggiornamento significativo del modello.
Logging e tracciabilità
Attivare meccanismi di logging completi di tutte le interazioni e decisioni prese dall’agente conversazionale, conservando tali registri in modo sicuro per eventuali audit. La tracciabilità è un principio cardine per l’AI Act, specie per garantire accountability. I fornitori di sistemi ad alto rischio devono registrare gli eventi durante tutto il ciclo di vita dell’AI, così da poter risalire a come è stato generato un certo output. È utile conservare log dettagliati (timestamp, query, risposte, interventi umani) anche per Assistenti Virtuali a basso rischio. Ciò consente a posteriori di ricostruire la condotta del sistema, identificare anomalie o usi impropri e dimostrare alle autorità di aver agito con diligenza in caso di indagini.
Sicurezza e privacy
Oltre a questi punti chiave, non bisogna dimenticare gli aspetti complementari di compliance come la cybersecurity e la privacy, specialmente se il sistema elabora dati personali, bisogna assicurarsi che lo faccia in linea con GDPR e con principi di minimizzazione. L’AI Act si integra con normative come il GDPR, promuovendo un approccio olistico. La robustezza, ad esempio, include difese contro input malevoli che possano alterare il comportamento dell’AI.
L’approccio di indigo.ai all’AI Act
Adeguarsi all’AI Act non significa semplicemente spuntare caselle. È un percorso continuo che intreccia tecnologia, processi e cultura organizzativa. Anche se la nostra soluzione non rientra tra i sistemi classificati come “ad alto rischio”, abbiamo progettato la piattaforma e le sue funzionalità per soddisfare, e in molti casi anticipare, anche i principi più restrittivi dell’AI Act.
1. Trasparenza by-design (Art. 50)
In qualunque canale venga distribuito un Assistente Virtuale - sito web, app mobile o voce - mettiamo a disposizione strumenti integrati per garantire la massima chiarezza verso l’utente. Banner informativi, messaggi di benvenuto e prompt preconfigurati segnalano immediatamente che si sta interagendo con un sistema di AI. Bastano pochi clic per attivare queste funzionalità, senza necessità di sviluppo aggiuntivo.
In questo modo aiutiamo le aziende a rispettare gli obblighi di trasparenza e, al tempo stesso, a costruire fiducia. Comunicare con chiarezza fin dal primo messaggio evita fraintendimenti e rafforza la percezione di affidabilità e correttezza.
2. Protezione da usi impropri. Anti-Jailbreak Detection (Art. 5)
Sappiamo quanto le tecniche di prompt injection o jailbreak possano compromettere il comportamento di un modello conversazionale. Per questo abbiamo sviluppato uno strumento avanzato di Anti-Jailbreak Detection che individua e blocca in tempo reale input sospetti o potenzialmente dannosi, impedendo che il chatbot o voicebot venga forzato a generare risposte fuori dalle policy aziendali o in violazione delle normative.
Così riduciamo il rischio che l’AI venga manipolata o sfruttata per scopi illeciti, tutelando la reputazione del brand e contribuendo al rispetto delle disposizioni dell’Articolo 5 sull’uso inaccettabile dei sistemi.
3. Supervisione umana integrata (Art. 4 e 26)
Il principio di human-in-the-loop è alla base del nostro modello conversazionale. Per questo motivo, offriamo la possibilità di impostare l’hand-off automatico verso un operatore umano ogni volta che la conversazione esce dai parametri predefiniti, monitorare in tempo reale tutte le interazioni da dashboard centralizzate e definire regole di escalation per gestire in modo diverso i casi a bassa, media o alta criticità.
Questo approccio consente alle aziende di dimostrare un controllo attivo sul sistema e allo stesso tempo garantisce all’utente finale una continuità del servizio anche nelle situazioni più delicate.
4. Tracciabilità e sicurezza dei dati (AI Act e GDPR)
Ogni interazione gestita dal nostro sistema viene registrata con timestamp, metadati e log immutabili, pronti per audit interni o richieste delle autorità. La piattaforma integra strumenti di gestione dei segreti e controlli granulari sugli accessi, così da mantenere la sicurezza dei dati anche nei contesti più regolamentati.
Questa infrastruttura è pensata per supportare la governance dei dati in modo nativo, evitando la necessità di soluzioni esterne.
Cosa resta in capo al deployer
Per essere pienamente conformi all’AI Act, non basta adottare una tecnologia affidabile, è essenziale anche agire responsabilmente nella gestione quotidiana del sistema. Questo significa comunicare chiaramente all’utente che sta interagendo con un’AI, evitando impieghi vietati come la manipolazione delle vulnerabilità cognitive o la profilazione biometrica in tempo reale, e garantire che il personale coinvolto sia adeguatamente formato, con un controllo umano attivo sui processi decisionali critici e un monitoraggio costante delle performance e dei rischi.
Offriamo una piattaforma dove trasparenza, tracciabilità e sicurezza non sono un add-on, ma parte integrante dell’architettura. Il nostro obiettivo è permettere alle aziende di affrontare l’AI Act non come un vincolo, ma come un’occasione per rafforzare fiducia, governance e valore nel tempo.
Conformarsi all’AI Act è più di un obbligo normativo, è l’occasione per rafforzare governance, fiducia e competitività. Le aziende che integrano sin da ora trasparenza, supervisione e tracciabilità nei propri Assistenti Virtuali si preparano a una trasformazione digitale più solida e sostenibile.
FAQ
Devo adeguarmi all’AI Act anche se uso un assistente virtuale solo per il customer care?
Sì, se l’assistente interagisce direttamente con l’utente, sei tenuto a rispettare almeno gli obblighi di trasparenza. Dovrai informare chiaramente l’utente che sta parlando con un’AI e monitorare le sue risposte per evitare errori o bias.
Cosa succede se uso un modello di AI generativa di terze parti?
In qualità di integratore, sei responsabile della verifica della conformità del fornitore. Devi documentare il modello, tracciare le versioni usate e aggiornare periodicamente le valutazioni dei rischi, soprattutto dopo ogni update del modello.
La piattaforma di indigo.ai è già pronta per supportare questi requisiti?
Sì. La nostra piattaforma offre strumenti nativi per garantire trasparenza, supervisione, tracciabilità e sicurezza, aiutando le aziende ad affrontare l’adeguamento all’AI Act con maggiore rapidità e fiducia.