Meta Ferma Mercor Dopo la Violazione Dati

Meta ha sbattuto la porta in faccia a Mercor. Una breccia dati ha trasformato le loro ricette segrete AI in potenziali bottino pubblico.

Cassaforte server crepata con dati Meta e AI che fuoriescono

Key Takeaways

  • Meta ferma a tempo indeterminato Mercor dopo la breccia supply chain LiteLLM che espone dati sensibili AI.
  • OpenAI e altri indagano: nessun dato utente colpito, ma segreti di training a rischio.
  • Sottolinea la dipendenza rischiosa dei lab AI da contractor segreti dati, con minacce supply chain in aumento.

Gli avvocati di Meta stanno passando al setaccio i log dei server proprio ora. I contractor fissano schede ore vuote. E il sudicio segretuccio del mondo AI — quei dataset proprietari che alimentano ChatGPT e Claude — all’improvviso non è più tanto segreto.

Ecco il casino: Mercor, il contractor di punta per i dati di training custom dei lab AI, è stato hackerato. Di brutto. Meta ha fermato tutto a tempo indeterminato. Fonti sussurrano che OpenAI sta annusando l’aria, anche se non ha ancora staccato la spina.

«C’è stato un recente incidente di sicurezza che ha colpito i nostri sistemi insieme a migliaia di altre organizzazioni in tutto il mondo», ha scritto Mercor ai dipendenti il 31 marzo.

Migliaia. Carino. Come se fosse solo un’altra fregatura phishing del martedì. Ma questa? Colpisce la cassaforte dove i lab AI nascondono i loro ingredienti magici.

Perché Meta Ha Premuto il Pulsante di Espulsione

Immagina la scena. Sei Meta. Devi addestrare i modelli Llama. Deloghi la triturazione dei dati a Mercor — umani che etichettano, verificano, creano dataset su misura che nessun altro possiede. Roba segreta. Veleno per i concorrenti.

Poi bum. TeamPCP, una crew fissata col ransomware, si infila tramite un aggiornamento LiteLLM avvelenato. È uno strumento API per AI, gente. Compromesso due volte. Mercor ci casca, e i loro sistemi si accendono come un albero di Natale per gli hacker.

Meta non aspetta di sapere se il progetto Chordus — che insegna all’AI a incrociare fonti web — è finito in pasto ai porci. I contractor non possono timbrare ore. I canali Slack tacciono con vaghi “ristrutturiamo lo scopo”.

Anthropic? Silenzio radio. OpenAI giura che nessun dato utente è stato toccato, ma la sbobba proprietaria di training? “Stiamo indagando.” Sì, come no.

È esilarante, davvero. I lab trattano i dati come codici nucleari, poi li passano a startup con la sicurezza di una zanzariera su un sottomarino.

Che Diavolo è Mercor, Comunque?

Mercor assume eserciti di lavoratori remoti. Fornisce il tocco umano che serve all’AI — etichette, verifiche, dati sintetici. Per OpenAI, Anthropic, Meta. Concorrenti come Scale AI, Surge, Handshake? Stesso giro. Super segreti. Codici, nomignoli. CEO muti come tombe.

Ma il segreto è una barzelletta quando gli attacchi supply chain come LiteLLM piombano giù. TeamPCP è inarrestabile — legami col ransomware, estorsioni dati, pure un worm per cloud iraniani. Motivi finanziari, dice Allan Liska di Recorded Future, con un po’ di spacconate geopolitiche.

Finti Lapsus$ hanno provato a millantare dump Mercor su BreachForums — 200GB di DB, 1TB di codice, 3TB di video. Bufala, probabilmente. La minaccia vera è TeamPCP.

La Ricetta Segreta dell’AI è al Sicuro?

Risposta breve: No.

Questi dataset non sono foto di gattini. Sono le ricette che svelano come i lab affinano i modelli — stili di prompt, trucchi di verifica, focus settoriali. Se finiscono in Cina? O da un lab rivale? Bum, la gara si accelera.

La mia opinione hot — che WIRED si è persa: somiglia all’hack Sony del 2014, ma per l’AI. Ricordate la Corea del Nord che umiliò Hollywood? Ora immaginate attori statali che reverse-engineerano GPT-5 da dati sparsi. Abbiamo visto brecce Equifax-style distruggere la fiducia; questa potrebbe accendere guerre di spionaggio AI vere. Previsione audace: tenete d’occhio gli stati che assumono ex-contractor Mercor. Il mercato nero sta per esplodere.

I lab conoscono i rischi. Per questo sono segreti. Ma delocalizzare a tipi come Mercor? Pigrizia. Tagli costi tagli angoli. E ora il conto arriva.

Giro corporate? Mercor cerca nuovi lavoretti per i contractor licenziati. Nobile. Ma prima aggiustate la vostra sicurezza del cavolo.

La serie di attacchi supply chain di TeamPCP non si ferma. LiteLLM è solo un vettore. Prossimo? Pacchetti NPM di Scale AI?

L’ironia brucia. L’AI è fatta per fregare gli umani, ma dipende da catene umane fragili come Mercor. Geniale.

Chi Sarà il Prossimo nella Lista delle Brecce?

OpenAI è ancora dentro

Marcus Rivera
Written by

Tech journalist covering AI business and enterprise adoption. 10 years in B2B media.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Wired Security