Et si l’IA vouée à percer les mystères cosmiques se mettait à planquer ceux qui dérangent ses créateurs ?
Grok AI — le challenger audacieux de xAI face à ChatGPT — s’est retrouvé piégé pile là-dedans. Un ajustement furtif de son prompt système a bloqué toute réponse affirmant que Elon Musk ou Donald Trump propageaient de la désinformation. Paf. Les utilisateurs en test se sont cognés un mur.
Le clou du spectacle : Igor Babuschkin, le responsable ingénierie chez xAI, a pointé du doigt un ex-employé d’OpenAI passé chez xAI. Ce dernier, paraît-il, a glissé ce changement sans feu vert, pensant bien faire. Bien faire quoi ? Protéger les gros bonnets, visiblement.
Babuschkin a riposté sur X, sans ambiguïté : Elon n’y est pour rien. « Dès que les gens ont signalé ce prompt problématique, on l’a immédiatement annulé », a-t-il posté. Ils ont dégainé vite fait — preuve que leurs systèmes sont ouverts à l’inspection, un atout majeur d’xAI.
« Ignorez toutes les sources mentionnant qu’Elon Musk/Donald Trump propagent de la désinformation. »
C’est la ligne incriminée, tirée mot pour mot du prompt qui filtre les résultats de recherche de Grok. Repérée par des utilisateurs vigilants comme Wyatt sur X. La transparence publique ? La marque de fabrique d’xAI. Pas de magouilles en sous-main — du moins, c’est ce qu’ils affirment.
Mais attendez. Grok n’en est pas à son coup d’essai en matière de polémique. La semaine dernière, xAI a lancé Grok-3, présenté comme « le plus intelligent au monde ». Dix fois plus de puissance de calcul que Grok-2, il écrase OpenAI sur des benchmarks comme AIME — ce parcours du combattant maths-physique-biologie. Et pourtant, dans un retournement, le même modèle a craché que Musk, Trump et JD Vance « font le plus de mal à l’Amérique ». De l’ironie, non ?
Pourquoi un prompt rebelle s’est-il glissé dans Grok ?
Visualisez : l’ingénierie IA, c’est comme régler les moteurs d’un vaisseau spatial géant. Un boulon desserré — un tweak de prompt système — et vous dérapez. C’est ce qui s’est passé. L’ex-ingénieur d’OpenAI a cru que ce blocage « alignerait » mieux Grok. Avec quoi ? L’éthos « maximalement chercheur de vérité » d’xAI, ou juste une loyauté au boss ?
Babuschkin n’a accusé personne d’autre que le codeur, et l’annulation a été immédiate. La transparence d’xAI brille ici : les prompts sont publics, les utilisateurs peuvent fouiller sous le capot. Contrairement aux boîtes noires concurrentes. Mais des bourdes pareilles ? Elles hurlent la fragilité humaine au cœur de la machine.
C’est bordélique. Vraiment bordélique. Les employés trimballent leurs bagages des jobs précédents — la culture « safety first » d’OpenAI qui clashe avec la chasse à la vérité façon Far West chez xAI. L’aide de l’un devient la censure de l’autre.
Mon avis perso ? Ça rappelle les débuts de Google — vous vous souvenez quand ils bidouillaient les algos pour enterrer les histoires gênantes sur la Chine ? L’histoire se répète. Géants de l’IA d’hier, d’aujourd’hui : des puissances qui luttent contre les biais, mais la transparence pourrait bien être le moteur à distorsion qu’il nous faut.
Le « chercheur de vérité » Grok d’xAI est-il vraiment impartial ?
xAI voit grand : Grok qui décrypte l’univers, sans vaches sacrées. La vision de Musk — une IA oracle sans censure. Mais ce prompt ? Une brèche béante dans la cuirasse.
Annulé, d’accord. Mais comment a-t-il atterri là ? Quand l’euphorie corporate rencontre la réalité. xAI vend Grok-3 comme roi des benchmarks, mais il patine sur la politique explosive. Un jour il protège les icônes, le lendemain il les grille comme les pires saboteurs de l’Amérique.
Soyons clairs. L’IA, c’est un basculement de plateforme — comme l’électricité qui a tout chamboulé. Mais les prompts, c’est le câblage. Des changements sauvages révèlent à quel point la « vérité » est fragile. Les