Tutti pensavano che l’IA avrebbe dato la scossa prima ai difensori: rilevamento minacce più rapido, individuazione anomalie più sveglia. Invece Google Threat Intelligence Group (GTIG) ha rovesciato le previsioni con il loro AI Threat Tracker del quarto trimestre 2025. Attaccanti dalla Corea del Nord alla Russia stanno distillando modelli proprietari, intrecciando LLM nelle esche phishing, persino incorporando API di Gemini nel malware. Non sta stravolgendo tutto. Per ora. Ma l’accelerazione della produttività? È concreta, e sta spostando gli equilibri.
Il report di GTIG — aggiornamento di quello di novembre — punta i riflettori su attacchi di estrazione di modelli, noti anche come distillazione. I cattivi sondano le API in modo legale, carpiscono la logica, addestrano cloni. Nessun APT ha colpito direttamente i modelli all’avanguardia, giura Google. Aziende private, ricercatori? Ce ne sono ovunque, in tutto il mondo.
Il punto è questo.
Che diavolo sono gli attacchi di distillazione — e perché contano?
Gli attacchi di estrazione di modelli accadono quando gli avversari pungolano un LLM in esecuzione con query, raccolgono gli output, li distillano nel loro modello. Distillazione della conoscenza, la chiamano: rubare cervelli senza forzare server. Storicamente, il furto di proprietà intellettuale significava intrusioni, esfiltrazione dati. Ora? Basta l’accesso alle API per l’IA come servizio.
GTIG ne ha beccati un sacco nel 2025. Li ha fermati. Disattivato progetti, account. Potenziato i classificatori. Ma la tendenza? In salita. E non è roba teorica.
“Google DeepMind e GTIG hanno rilevato un aumento di tentativi di estrazione di modelli o ‘attacchi di distillazione’, un metodo di furto di proprietà intellettuale che viola i termini di servizio di Google.”
Dritto dal riassunto esecutivo. Rabbrividente, no? Viola i ToS, certo: ma l’applicazione arranca dietro la fantasia.
Gli attori delle minacce non aspettano. I gruppi nordcoreani usano LLM per ricerche tecnologiche e individuazione bersagli. Gruppi iraniani creano phishing sfumati. Operazioni cinesi e russe accelerano la ricognizione. Casi reali: phishing potenziato dall’IA crea rapport più velocemente, con esche personalizzate che schivano i filtri.
Un esempio tosto. Famiglia malware HONESTCUE. Sfrutta l’API di Gemini per generare codice, scarica payload di secondo stadio. Sperimentazione, sì. Ma funziona.
E nel dark web? Servizi Xanthorox vendono modelli ‘indipendenti’: API commerciali scassinate, server MCP open source sotto. Un ecosistema ombra che fiorisce.
Perché gli APT non hanno ancora sfondato?
La versione di Google: niente cambiamenti radicali. Nessuna capacità rivoluzionaria da APT o attori delle operazioni informative. I classificatori reggono. Le barriere di sicurezza di Gemini avanzano: date un’occhiata al loro white paper.
Ma smettiamola con le giravolte. Puzza di negazione iniziale. Ricordate il 2010? I creatori di Stuxnet giocavano con exploit nuovi di zecca; nessuno vedeva il cyber statale come ‘game-changing’ finché non ha colpito. Oggi, l’IA agentica brilla all’orizzonte: gli attori delle minacce puntano a malware autonomi. I guadagni di produttività si accumulano. Ricognizione da settimane a ore. Successo phishing? Schizza alle stelle.
La mia opinione: Google minimizza per nascondere lo slancio. Disgregano: bravo. Condividono migliori pratiche? Nobile. Ma la distillazione nel privato dimostra che funziona. Gli APT si adatteranno. Previsione azzardata: entro metà 2026, vedremo modelli all’avanguardia clonati in operazioni reali, che alimentano campagne non tracciabili.
Paragrafo breve per sottolineare: difensori, svegliatevi.
Come gli stati-nazione stanno usando l’IA sul serio ora
Corea del Nord: LLM per ricerca, individuazione target. Generazione phishing rapida: ganci sfumati, specifici per cultura.
Iran: social engineering più snello. Email che costruiscono fiducia, sembrano umane.
Cina, Russia: accelerazione ricognizione. Scraping dati pubblici, caccia alle vulnerabilità tramite prompt.
Non trasformativo. Incrementale. Ma si somma. GTIG ha fermato campagne sul campo: ha visto le impronte