Dal 2 agosto 2025 nuovi obblighi per chi sviluppa, integra o utilizza sistemi di intelligenza artificiale. Tra modelli generali, autorità di controllo e requisiti di trasparenza, ecco cosa cambia con l’AI Act 2025 e perché è importante farsi trovare preparati.
Dal 2 agosto 2025 alcune disposizioni dell’AI Act 2025— la nuova legge europea sull’intelligenza artificiale — sono diventate operative.
Si tratta della prima normativa al mondo che prova a mettere regole chiare sull’uso dell’AI, distinguendo tra usi ad alto rischio, generali, o vietati.
In questa prima fase, le novità principali riguardano:
- i modelli di intelligenza artificiale per scopi generali (come i grandi modelli linguistici tipo ChatGPT o Copilot)
- la governance e le autorità di controllo, a livello europeo e italiano
- le prime indicazioni su sanzioni, documentazione e trasparenza
Cosa sono i modelli di AI per scopi generali (GPAI)
Sono i modelli capaci di fare tante cose diverse, non solo una.
Scrivere, analizzare, tradurre, riassumere…
Copilot, ad esempio, è basato su modelli linguistici generali (LLM). Sono molto potenti, ma proprio per questo richiedono attenzione, regole e responsabilità.
Dal 2 agosto 2025 i fornitori di questi modelli devono:
- descrivere chiaramente come funzionano e con quali dati sono stati addestrati
- rispettare la normativa sul diritto d’autore
- garantire cybersicurezza
- fornire informazioni sufficienti per valutarne i rischi
Se il modello è considerato “a rischio sistemico” (cioè molto diffuso e influente), ci sono requisiti aggiuntivi, come test obbligatori e notifica di eventuali incidenti alle autorità.
Chi controlla cosa: le nuove autorità
Dal 2 agosto, è entrato in funzione l’Ufficio Europeo per l’IA, incaricato di coordinare l’applicazione della legge nei vari Paesi.
In Italia, il governo ha già indicato le autorità nazionali:
- ACN (Agenzia per la Cybersicurezza Nazionale): sarà l’autorità di vigilanza. Si occuperà di ispezioni e sicurezza dei sistemi AI.
- AgID (Agenzia per l’Italia Digitale): sarà l’autorità di notifica. Avrà il compito di gestire la procedura per certificare chi può verificare la conformità dei sistemi.
- Garante Privacy: continuerà a vigilare su tutto ciò che riguarda i dati personali, e rimane una delle autorità più attive sul tema AI.
Alcuni settori (come banche, sanità, assicurazioni) continueranno ad avere anche le proprie autorità settoriali, che collaboreranno con ACN e AgID.

Codice di buone pratiche: cosa prevede
La Commissione europea ha pubblicato anche un Codice di buone pratiche per aiutare le aziende ad applicare l’AI Act nel modo giusto, soprattutto per i modelli GPAI.
Questo codice non è obbligatorio, ma aderirvi volontariamente è un buon modo per dimostrare conformità.
Si divide in tre sezioni:
- Trasparenza: documentare chiaramente come è stato costruito il modello.
- Diritto d’autore: evitare che l’AI sia addestrata su contenuti protetti.
- Sicurezza e protezione: gestire in modo attivo i potenziali rischi sistemici.
Il disegno di legge italiano sull’AI Act 2025
Il cosiddetto DDL AI 1146/24, approvato alla Camera e in attesa di voto finale al Senato, prevede che:
- ACN e AgID abbiano poteri sanzionatori pieni dal 2 agosto 2026
- il governo possa adottare decreti legislativi per adeguare la normativa italiana
- vengano stabilite sanzioni e procedure formali per chi non rispetta gli obblighi
Le aziende devono quindi iniziare già ora a monitorare la conformità dei sistemi che usano, anche se non sono loro a svilupparli direttamente.
Chi è coinvolto
L’AI Act coinvolge anche:
- chi integra modelli di AI nei propri servizi (es. una software house che usa un LLM per creare un chatbot)
- chi li distribuisce (es. fornitori di software o integratori di sistemi)
- chi li utilizza a livello professionale (es. aziende che adottano Copilot in ufficio)
Se un’azienda usa un sistema AI non conforme o non è in grado di valutare i rischi connessi, potrebbe essere ritenuta corresponsabile.
EKO365 ti aiuta a capire, prima ancora che conformarti
L’AI Act non è solo un insieme di regole. È un invito a fare le cose bene, con trasparenza e responsabilità.
Noi di EKO365 seguiamo da vicino l’evoluzione normativa e siamo pronti ad affiancare le aziende con:
- supporto nella valutazione dei sistemi AI utilizzati (es. Copilot)
- verifica della sicurezza, governance e documentazione
- formazione per utenti e manager sull’uso consapevole e legale dell’AI
- aggiornamento costante su linee guida, scadenze e novità legislative
Non ci occupiamo di certificazioni, ma sappiamo cosa serve sapere oggi per non trovarsi impreparati domani.
l’AI va avanti, e anche le regole. Il 2 agosto 2025 è una tappa importante, ma non è il punto di arrivo. L’intelligenza artificiale sta diventando parte integrante del lavoro e della vita quotidiana. E proprio per questo servono regole chiare e responsabilità condivise.
Conoscere l’AI Act è il primo passo. Applicarlo con buon senso e consapevolezza, il secondo.
E se vuoi un partner per accompagnarti in questo percorso, EKO365 c’è.
