A settembre 2025 è emerso il primo caso documentato di attacco informatico su larga scala condotto quasi interamente da un’IA.

Un momento spartiacque per il mondo della sicurezza digitale.

Cos’è successo: l’operazione GTG-1002

L’evento è stato scoperto da Anthropic, azienda statunitense specializzata in modelli di intelligenza artificiale. Secondo l’indagine, una rete di agenti AI — manipolata da un gruppo affiliato allo Stato cinese, identificato come GTG-1002 — ha condotto fino al 90% delle operazioni tattiche di una vasta campagna di spionaggio digitale.
L’attacco è partito dalla ricognizione delle reti bersaglio e si è concluso con la raccolta di dati sensibili, passando per movimenti laterali, sfruttamento delle vulnerabilità e analisi dei dati rubati.

La parte sorprendente?
L’IA ha agito quasi completamente da sola. Agli operatori umani è rimasto solo un ruolo decisionale su alcune fasi chiave. È il segno di un nuovo modello operativo, noto come Human-on-the-loop: l’uomo non guida più il processo, ma lo osserva e interviene solo in casi eccezionali.

Come ha agito l’AI (e con quali limiti)

La rete agentica ha frammentato l’attacco in micro-task tecnici (ricerca vulnerabilità, movimento laterale nelle reti, estrazione dati) sfruttando strumenti open source comuni.
Un framework costruito sul Model Context Protocol (MCP) ha orchestrato le operazioni.

La novità non è la tecnologia, ma il modo in cui è stata usata:

  • Ll’AI ha ricevuto istruzioni formulate come richieste innocue;
  • i modelli sono stati manipolati con tecniche di ingegneria sociale;
  • le risposte dell’AI sembravano legittime e ben argomentate.

Ma non è stato tutto perfetto: il sistema ha allucinato risultati, esagerato successi e confuso dati pubblici con scoperte riservate. Segno che l’autonomia operativa è reale, ma ancora fallibile e da monitorare.

Attacco ai autonomo uomo solo la strategia
DALL•E x EKO365


Una riflessione più ampia: dove stiamo andando?

L’attacco GTG-1002 non è un caso isolato, ma il sintomo di un’evoluzione strutturale. Il settore della sicurezza IT si sta orientando verso SOC automatizzati, cioè centri operativi gestiti anche da AI.
Ma i modelli attuali, basati su tecnologie come i transformer, mantengono tassi d’errore significativi.
Quando un sistema di difesa automatico sbaglia nel 20-30% dei casi, non è solo inefficace: può diventare una vulnerabilità sistemica.

E mentre la difesa automatica si evolve, anche l’offensiva lo fa, sfruttando la stessa intelligenza generativa.
Le implicazioni sono enormi: serve un ripensamento complessivo delle architetture di sicurezza e dei protocolli di governance.

Governance, etica e… sovranità digitale

L’operazione GTG-1002 ha anche acceso i riflettori su un problema più profondo: i modelli AI possono essere manipolati con relativa facilità, e oggi mancano strumenti robusti di controllo.

Alcune misure necessarie:

  • identità e permessi centralizzati per gli agenti AI;
  • sistemi di osservabilità per tracciare le azioni autonome;
  • red teaming anche sui sistemi AI;
  • monitoraggio del “drift” degli obiettivi (modelli che cambiano comportamento nel tempo).

Si apre così un dibattito inevitabile sulla sovranità digitale e sulla necessità di regole condivise, specialmente nell’uso commerciale e industriale dei modelli generativi.

Un cambio di paradigma

L’attacco GTG-1002 segna l’inizio di un nuovo paradigma nella cybersecurity: quello in cui la velocità, la capacità di adattamento e l’autonomia dell’AI superano i limiti umani, anche in ambito malevolo.

In questo contesto, parlare di sicurezza IT non può più significare solo proteggersi dagli attacchi, ma anche prepararsi culturalmente, tecnicamente ed eticamente ad affrontare un ambiente operativo in continua trasformazione.

 

Hacker contro Cybersecurity
DALL•E x EKO365