Dal 2 agosto 2025  nuovi obblighi per chi sviluppa, integra o utilizza sistemi di intelligenza artificiale. Tra modelli generali, autorità di controllo e requisiti di trasparenza, ecco cosa cambia con l’AI Act 2025 e perché è importante farsi trovare preparati.

Dal 2 agosto 2025 alcune disposizioni dell’AI Act 2025— la nuova legge europea sull’intelligenza artificiale — sono diventate operative.

Si tratta della prima normativa al mondo che prova a mettere regole chiare sull’uso dell’AI, distinguendo tra usi ad alto rischio, generali, o vietati.

In questa prima fase, le novità principali riguardano:

  • i modelli di intelligenza artificiale per scopi generali (come i grandi modelli linguistici tipo ChatGPT o Copilot)
  • la governance e le autorità di controllo, a livello europeo e italiano
  • le prime indicazioni su sanzioni, documentazione e trasparenza

Cosa sono i modelli di AI per scopi generali (GPAI)

Sono i modelli capaci di fare tante cose diverse, non solo una.
Scrivere, analizzare, tradurre, riassumere…
Copilot, ad esempio, è basato su modelli linguistici generali (LLM). Sono molto potenti, ma proprio per questo richiedono attenzione, regole e responsabilità.

Dal 2 agosto 2025 i fornitori di questi modelli devono:

  • descrivere chiaramente come funzionano e con quali dati sono stati addestrati
  • rispettare la normativa sul diritto d’autore
  • garantire cybersicurezza
  • fornire informazioni sufficienti per valutarne i rischi

Se il modello è considerato “a rischio sistemico” (cioè molto diffuso e influente), ci sono requisiti aggiuntivi, come test obbligatori e notifica di eventuali incidenti alle autorità.

Chi controlla cosa: le nuove autorità

Dal 2 agosto, è entrato in funzione l’Ufficio Europeo per l’IA, incaricato di coordinare l’applicazione della legge nei vari Paesi.

In Italia, il governo ha già indicato le autorità nazionali:

  • ACN (Agenzia per la Cybersicurezza Nazionale): sarà l’autorità di vigilanza. Si occuperà di ispezioni e sicurezza dei sistemi AI.
  • AgID (Agenzia per l’Italia Digitale): sarà l’autorità di notifica. Avrà il compito di gestire la procedura per certificare chi può verificare la conformità dei sistemi.
  • Garante Privacy: continuerà a vigilare su tutto ciò che riguarda i dati personali, e rimane una delle autorità più attive sul tema AI.

Alcuni settori (come banche, sanità, assicurazioni) continueranno ad avere anche le proprie autorità settoriali, che collaboreranno con ACN e AgID.

AI ACT 2025 le istruzioni per la AI
DALL•E x EKO365

Codice di buone pratiche: cosa prevede

La Commissione europea ha pubblicato anche un Codice di buone pratiche per aiutare le aziende ad applicare l’AI Act nel modo giusto, soprattutto per i modelli GPAI.

Questo codice non è obbligatorio, ma aderirvi volontariamente è un buon modo per dimostrare conformità.

Si divide in tre sezioni:

  1. Trasparenza: documentare chiaramente come è stato costruito il modello.
  2. Diritto d’autore: evitare che l’AI sia addestrata su contenuti protetti.
  3. Sicurezza e protezione: gestire in modo attivo i potenziali rischi sistemici.

Il disegno di legge italiano sull’AI Act 2025

Il cosiddetto DDL AI 1146/24, approvato alla Camera e in attesa di voto finale al Senato, prevede che:

  • ACN e AgID abbiano poteri sanzionatori pieni dal 2 agosto 2026
  • il governo possa adottare decreti legislativi per adeguare la normativa italiana
  • vengano stabilite sanzioni e procedure formali per chi non rispetta gli obblighi

Le aziende devono quindi iniziare già ora a monitorare la conformità dei sistemi che usano, anche se non sono loro a svilupparli direttamente.

Chi è coinvolto

L’AI Act coinvolge anche:

  • chi integra modelli di AI nei propri servizi (es. una software house che usa un LLM per creare un chatbot)
  • chi li distribuisce (es. fornitori di software o integratori di sistemi)
  • chi li utilizza a livello professionale (es. aziende che adottano Copilot in ufficio)

Se un’azienda usa un sistema AI non conforme o non è in grado di valutare i rischi connessi, potrebbe essere ritenuta corresponsabile.

EKO365 ti aiuta a capire, prima ancora che conformarti

L’AI Act non è solo un insieme di regole. È un invito a fare le cose bene, con trasparenza e responsabilità.

Noi di EKO365 seguiamo da vicino l’evoluzione normativa e siamo pronti ad affiancare le aziende con:

  • supporto nella valutazione dei sistemi AI utilizzati (es. Copilot)
  • verifica della sicurezza, governance e documentazione
  • formazione per utenti e manager sull’uso consapevole e legale dell’AI
  • aggiornamento costante su linee guida, scadenze e novità legislative

Non ci occupiamo di certificazioni, ma sappiamo cosa serve sapere oggi per non trovarsi impreparati domani.

l’AI va avanti, e anche le regole. Il 2 agosto 2025 è una tappa importante, ma non è il punto di arrivo. L’intelligenza artificiale sta diventando parte integrante del lavoro e della vita quotidiana. E proprio per questo servono regole chiare e responsabilità condivise.

Conoscere l’AI Act è il primo passo. Applicarlo con buon senso e consapevolezza, il secondo.

E se vuoi un partner per accompagnarti in questo percorso, EKO365 c’è.

AI ACT 2025 la firma del DDL
DALL•E x EKO365