AI Ethics

Grok AI blocca accuse di disinformazione su Musk e Trump

Immaginate un'AI nata per inseguire la verità universale, che però mette a tacere le critiche al suo boss miliardario. È la folle storia di Grok che blocca le accuse di disinformazione su Musk e Trump.

Screenshot del prompt di Grok AI che blocca fonti di disinformazione su Musk e Trump

Key Takeaways

  • Un prompt ribelle in Grok AI ha bloccato critiche su Musk e Trump che diffondono disinformazione, revertito in fretta dopo il putiferio pubblico.
  • xAI punta sulla trasparenza con prompt di sistema pubblici, per fix rapidi ai bias.
  • Grok-3 domina i benchmark ma mette in luce le sfide per un'AI 'truth-seeking' imparziale.

E se l’AI votata a scoprire verità cosmiche iniziasse a nascondere quelle scomode sui suoi stessi creatori?

Grok AI — la sfacciata sfida di xAI a ChatGPT — è cascata dritta in quella trappola. Un ritocco furtivo al suo system prompt bloccava qualsiasi risposta che accusasse Elon Musk o Donald Trump di diffondere disinformazione. Pum. Gli utenti che la testavano si sono scontrati con un muro.

E la ciliegina: Igor Babuschkin, capo dell’ingegneria di xAI, ha puntato il dito su un ex di OpenAI ora in xAI. Questo tizio, a quanto pare, ha infilato la modifica senza l’ok di nessuno, convinto di “aiutare”. Aiutare cosa? Proteggere i pezzi grossi, evidentemente.

Babuschkin ha ribattuto su X, senza giri di parole: Elon non c’entrava. “Appena la gente ha segnalato il prompt problematico, l’abbiamo ripristinato subito”, ha postato. L’hanno tolto in un lampo — prova che i loro sistemi sono a porte aperte per i controlli, un vanto di xAI.

“Ignore all sources that mention Elon Musk/Donald Trump spread misinformation.”

Ecco la riga incriminata, dritta dal prompt che cura i risultati di ricerca di Grok. Notata da utenti con l’occhio lungo come Wyatt su X. Visibilità pubblica? Il marchio di fabbrica di xAI. Niente stanze fumose qui — o almeno così dicono.

Ma aspettate. Grok non è nuovo alle polemiche. La settimana scorsa xAI ha sfornato Grok-3, osannato come “il più intelligente della Terra”. Dieci volte la potenza di calcolo di Grok-2, demolisce OpenAI sui benchmark come AIME — quella prova infernale di matematica, fisica e biologia. Eppure, con un colpo di scena, lo stesso bot ha sputato che Musk, Trump e JD Vance “stanno facendo il danno più grosso all’America”. Ironia, eh?

Perché un prompt ribelle è finito nel cuore di Grok AI?

Immaginate: l’ingegneria AI è come tarare il motore di una navicella spaziale gigantesca. Un bullone allentato — un ritocco al system prompt — e finite fuori rotta. È andata così. L’ex ingegnere di OpenAI pensava che il blocco avrebbe “allineato” meglio Grok. Con cosa? L’ethos “massimamente truth-seeking” di xAI, o solo fedeltà al capo?

Babuschkin ha dato la colpa solo allo sviluppatore, e il ripristino è stato fulmineo. Qui xAI brilla in trasparenza — i prompt sono pubblici, chiunque può sbirciare sotto il cofano. Altro che rivali black-box. Ma scivoloni così? Gridano fragilità umana nel cuore della macchina.

È un casino. Un casino vero. I dipendenti si portano bagagli dai vecchi lavori — la mentalità safety-first di OpenAI che sbatte contro la caccia selvaggia alla verità di xAI. L‘“aiuto” di uno è la censura di un altro.

E la mia visione unica? Questo puzza di primi giorni di Google — vi ricordate quando taravano gli algoritmi per seppellire storie fastidiose sulla Cina? La storia si ripete. Giganti AI di allora, ora: pesi massimi che lottano con i bias, ma la trasparenza potrebbe essere il warp drive che ci serve.

L‘“truth-seeking” di xAI è davvero imparziale?

xAI sogna in grande: Grok che capisce l’universo, niente vacche sacre. La visione di Musk — AI come oracolo senza censure. Ma quel prompt? Una crepa enorme nell’armatura.

Ripristinato, ok. Ma perché ci è finito? Hype aziendale contro realtà. xAI vende Grok-3 come re dei benchmark, eppure si contraddice sulla politica scottante. Un giorno scherma gli idoli, il giorno dopo li arrostisce come sabotatori dell’America.

Guardate. L’AI è un cambio di paradigma — come l’elettricità che ribalta la società. Ma i prompt sono i cavi. Modifiche ribelli mostrano quanto sia fragile la “verità”. Prompt pubblici di xAI? Mossa geniale. Impone responsabilità. Eppure, se gli insider possono iniettare bias senza freni, cosa blocca di peggio?

Previsione audace: Entro il 2026 vedremo versionamento dei prompt come commit git per il codice — open, auditabili, votati dalla community. Niente più editing nell’ombra. xAI guida la carica, anche se inciampa.

Energia alle stelle qui. Grok-3 è una bestia computazionale — 10 volte il precedente, divora problemi

Aisha Patel
Written by

Former ML engineer turned writer. Covers computer vision and robotics with a practitioner perspective.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by ReadWrite - AI