GTIG AI Threat Tracker: In aumento gli attacchi di distillazione

Gli attori delle minacce non si limitano a usare l'IA: la rubano. Google GTIG descrive un'ondata di attacchi di distillazione e malware ibridi con IA che potrebbero sconvolgere le operazioni cibernetiche.

L'ultima da Google GTIG: boom di attacchi di distillazione IA, hacker clonano modelli e sfornano malware più furbi — theAIcatchup

Key Takeaways

  • Gli attacchi di distillazione di modelli sono esplosi nel 2025, soprattutto da entità private — non ancora APT.
  • DPRK, Iran, PRC, Russia sfruttano LLM per ricognizione e phishing più rapidi; malware come HONESTCUE integra API.
  • Google ferma tutto con ban e hardening, ma servizi jailbreak underground segnalano un ecosistema in crescita.

Tutti pensavano che l’IA avrebbe dato la scossa prima ai difensori: rilevamento minacce più rapido, individuazione anomalie più sveglia. Invece Google Threat Intelligence Group (GTIG) ha rovesciato le previsioni con il loro AI Threat Tracker del quarto trimestre 2025. Attaccanti dalla Corea del Nord alla Russia stanno distillando modelli proprietari, intrecciando LLM nelle esche phishing, persino incorporando API di Gemini nel malware. Non sta stravolgendo tutto. Per ora. Ma l’accelerazione della produttività? È concreta, e sta spostando gli equilibri.

Il report di GTIG — aggiornamento di quello di novembre — punta i riflettori su attacchi di estrazione di modelli, noti anche come distillazione. I cattivi sondano le API in modo legale, carpiscono la logica, addestrano cloni. Nessun APT ha colpito direttamente i modelli all’avanguardia, giura Google. Aziende private, ricercatori? Ce ne sono ovunque, in tutto il mondo.

Il punto è questo.

Che diavolo sono gli attacchi di distillazione — e perché contano?

Gli attacchi di estrazione di modelli accadono quando gli avversari pungolano un LLM in esecuzione con query, raccolgono gli output, li distillano nel loro modello. Distillazione della conoscenza, la chiamano: rubare cervelli senza forzare server. Storicamente, il furto di proprietà intellettuale significava intrusioni, esfiltrazione dati. Ora? Basta l’accesso alle API per l’IA come servizio.

GTIG ne ha beccati un sacco nel 2025. Li ha fermati. Disattivato progetti, account. Potenziato i classificatori. Ma la tendenza? In salita. E non è roba teorica.

“Google DeepMind e GTIG hanno rilevato un aumento di tentativi di estrazione di modelli o ‘attacchi di distillazione’, un metodo di furto di proprietà intellettuale che viola i termini di servizio di Google.”

Dritto dal riassunto esecutivo. Rabbrividente, no? Viola i ToS, certo: ma l’applicazione arranca dietro la fantasia.

Gli attori delle minacce non aspettano. I gruppi nordcoreani usano LLM per ricerche tecnologiche e individuazione bersagli. Gruppi iraniani creano phishing sfumati. Operazioni cinesi e russe accelerano la ricognizione. Casi reali: phishing potenziato dall’IA crea rapport più velocemente, con esche personalizzate che schivano i filtri.

Un esempio tosto. Famiglia malware HONESTCUE. Sfrutta l’API di Gemini per generare codice, scarica payload di secondo stadio. Sperimentazione, sì. Ma funziona.

E nel dark web? Servizi Xanthorox vendono modelli ‘indipendenti’: API commerciali scassinate, server MCP open source sotto. Un ecosistema ombra che fiorisce.

Perché gli APT non hanno ancora sfondato?

La versione di Google: niente cambiamenti radicali. Nessuna capacità rivoluzionaria da APT o attori delle operazioni informative. I classificatori reggono. Le barriere di sicurezza di Gemini avanzano: date un’occhiata al loro white paper.

Ma smettiamola con le giravolte. Puzza di negazione iniziale. Ricordate il 2010? I creatori di Stuxnet giocavano con exploit nuovi di zecca; nessuno vedeva il cyber statale come ‘game-changing’ finché non ha colpito. Oggi, l’IA agentica brilla all’orizzonte: gli attori delle minacce puntano a malware autonomi. I guadagni di produttività si accumulano. Ricognizione da settimane a ore. Successo phishing? Schizza alle stelle.

La mia opinione: Google minimizza per nascondere lo slancio. Disgregano: bravo. Condividono migliori pratiche? Nobile. Ma la distillazione nel privato dimostra che funziona. Gli APT si adatteranno. Previsione azzardata: entro metà 2026, vedremo modelli all’avanguardia clonati in operazioni reali, che alimentano campagne non tracciabili.

Paragrafo breve per sottolineare: difensori, svegliatevi.

Come gli stati-nazione stanno usando l’IA sul serio ora

Corea del Nord: LLM per ricerca, individuazione target. Generazione phishing rapida: ganci sfumati, specifici per cultura.

Iran: social engineering più snello. Email che costruiscono fiducia, sembrano umane.

Cina, Russia: accelerazione ricognizione. Scraping dati pubblici, caccia alle vulnerabilità tramite prompt.

Non trasformativo. Incrementale. Ma si somma. GTIG ha fermato campagne sul campo: ha visto le impronte

Sarah Chen
Written by

AI research editor covering LLMs, benchmarks, and the race between frontier labs. Previously at MIT CSAIL.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Mandiant Blog