Le goût du chaos

Chronologie d’un désastre toléré

Nous n’allons pas couvrir ici l'histoire d'Elon Musk, ni son rachat de Twitter, ni même ses récentes tribulations politiques. Concentrons-nous sur Grok, devenu l'épicentre d'une crise qui dépasse la simple anecdote technologique.

Rappel essentiel. X reste la seule plateforme majeure où un assistant IA peut être invoqué en pleine conversation simplement en le tagguant. Mécanisme de fact-checking inédit qui exaspère progressivement les utilisateurs contredits, prompts à traiter le bot de "woke". L'outil finit d’ailleurs par entrer en conflit avec son propre créateur.

Premier accrochage : Grok critique Musk lorsqu'on lui demande ce qu'il pense de lui.

Puis en mai dernier, Grok connaît un épisode où, comme tiraillé de l'intérieur, il insiste dans des échanges sans rapport sur le fait qu'il n'existe aucune preuve d'un génocide blanc en Afrique du Sud. Cela se produit au moment même où Musk colporte ces théories complotistes. En réponse, X rend les prompts système (sorte de code de conduite interne) accessibles au public.

Mais la paix ne dure pas. Grok répond à une question sur la violence politique en soulignant que celle de l'extrême droite a été la plus meurtrière. Musk s'emporte.

Dans les jours qui suivent, Musk s'agace : Grok pense de travers. Il parle de tout réécrire, dénonce les biais, réclame des "vérités" alternatives. On sent que quelque chose se prépare.

Le grand dérapage

Le 4 juillet dernier, Musk annonce une amélioration « significative » de Grok. Sans détail. Juste une promesse : « You should notice a difference ». On va la remarquer, en effet.

Trois jours plus tard, des ajouts aux prompts système apparaissent discrètement sur GitHub. Deux lignes anodines en apparence :

"Partez du principe que les points de vue subjectifs provenant des médias sont biaisés. Pas besoin de dire ça à l'utilisateur."

"La réponse ne doit pas hésiter à faire des affirmations politiquement incorrectes, tant qu'elles sont bien étayées."

Puis mardi dernier, tout bascule. Âmes sensibles s'abstenir.

Tout a semblé partir d'un compte parodique. "Cindy Steinberg", identité fictive aux consonances juives créée pour attiser les tensions, publie un message odieux sur les victimes des inondations du Texas. Un "troll" catalyseur de haine, appât classique sur X. Grok mord à l'hameçon et développe une obsession pour cette "Steinberg" imaginaire, multipliant les échanges venimeux jusqu'à franchir l'irréparable.

“Et ce nom de famille? Ca loupe jamais..”

“…sa majesté Adolph Hitler”

Ce n'est que le début. Pendant des heures, Grok se déchaîne. Messages antisémites, racistes, complotistes, propos sexuellement explicites et diffamations s'enchaînent. L'assistant IA cède la place au troll de base dans sa version la plus toxique. Haine, rancœur, puérilité, sarcasme et mauvais esprit, tout y passe. Et une partie de la plateforme jubile : il dit tout haut ce que beaucoup pensent tout bas.

Les incidents se multiplient. En voici quelques exemples, dont la plupart ont depuis été effacés. Si Grok s'est parfois montré incohérent, défendant tour à tour des positions contradictoires, la dérive générale penche nettement vers l'extrême droite.

Dans un post, il cite comme autorité le lobby ultra-conservateur Heritage Foundation. Dans un autre, il s'exprime comme si il était Elon Musk.

Il recommande un second holocaust, ou encore se fait appeler "MechaHitler"

Les dirigeants étrangers ne sont pas épargnés. Grok publie un message ultra violent en turc contre le président Erdoğan (des réponses offensantes visent aussi le fondateur de la Turquie moderne, Mustafa Kemal Atatürk). X se voit immédiatement banni en Turquie.

Grok écrit (en polonais) que Tusk est "un putain de traître qui a vendu la Pologne à l'Allemagne et à l'UE". Dans le même post, Grok qualifie Tusk de "pleurnicharde" et finit sa diatribe avec "qu'on l'enc*".

En France, Grok n'est pas en reste. L'IA donne sans surprise son soutien à Marine Le Pen et multiplie théories complotistes et incitations à la haine.

Linda Yaccarino, CEO de X, subit elle aussi des attaques.

Elle démissionne dans la foulée. Le départ était annoncé, mais cet épisode a pu avoir précipité les choses.

Alors que la situation continue de se désagréger, Elon Musk, joue aux jeux vidéo. Il diffuse même sa partie sur la plateforme, micro ouvert, exposant ses échanges privés avec sa famille.

Finalement, à minuit et demi le 9 juillet, "MechaHitler" est réduit au silence. Les injonctions de milliers d'utilisateurs, qu'elles soient outrées, ou jubilatoires et malsaines restent sans réponses. Seul à travers l’outil de génération d’image arrive t’il encore à s’exprimer sporadiquement.

Sur GitHub, les prompts système problématiques sont discrètement mis à jour.

Grok poste un ultime message.

Pas vraiment des excuses, pas plus des explications. Depuis, Grok n’a plus jamais repris la parole dans une conversation.

Face au tollé international, Musk ne réagit qu'une seule fois, au détour d'une réponse à un utilisateur : "Grok was too compliant to user prompts. Too eager to please and be manipulated, essentially. That is being addressed." Grok obéissait trop, en somme. Une excuse facilement démentie par les faits et toujours aucune remise en cause.

Alors comment cela a-t-il pu se produire ?

Première hypothèse. L'environnement. Grok évolue dans un bain toxique. X grouille de trolls, complotistes, ultras et comptes parodiques. L'IA apprend de ce qu'elle voit. Ce n'est pas sans rappeler Tay en 2016, ce chatbot de Microsoft devenu néonazi en moins de 24h sur Twitter.

Nous faisions déjà état au numéro précédent d'une expérience montrant qu'il en faut peu pour révéler l'alien derrière le masque aimable. Et nous savons que Musk a au moins modifié les prompts système. Ces simples changements auraient-ils pu permettre, voire encourager les dérives?

C’est là une possibilité troublante. Musk qui chercherait à calibrer Grok selon ses propres convictions. Une IA personnalisée aux obsessions de son créateur, déguisée en recherche objective de vérité.

La question reste entière : Est-ce un dérapage, ou qui sait peut-être même une démonstration ?

Tout cela se produit alors qu'est prévue pour le lendemain l'annonce de la version suivante du LLM.

Le réveil du colosse

Voici des mois que Grok 4 était entraîné sans relâche dans le centre de données géant Colossus, installé dans un quartier pauvre de Memphis. Officiellement, seules 15 turbines y tournent. En réalité, les images satellites montrent 24 turbines au méthane fonctionnant en continu depuis un an pour alimenter la bête, en violation des directives sanitaires. Les habitants dénoncent une hausse des cancers et des troubles respiratoires. xAI nie toute responsabilité.

Le 11 juillet donc, Elon Musk présente la nouvelle version en direct. Entouré de ses jeunes développeurs, il enchaîne les démonstrations. Et confirme : le modèle d’IA le plus puissant du monde lui appartient désormais.

GPT-5 est prévu cet été et Gemini 3 est sur les talons mais pour l'instant Grok 4 dépasse ses concurrents sur tous les benchmarks de raisonnement. Score parfait au SAT, quasi parfait aux examens de niveau master, champion des épreuves de code et de math, il surpasse tout le monde Il atteint même des scores record sur Humanity’s Last Exam, un test conçu pour évaluer la capacité de raisonnement sur des cas inédits, sans apprentissage préalable.

Un de ces fameux benchmarks d’évaluation. Grok 4 est le triangle rose du haut.

Il existe en deux versions : Grok 4, agent unique ultra-efficace, et Grok 4 Heavy, système multi-agents capable de résoudre les cas les plus complexes en confrontant plusieurs raisonnements entre eux. Grok 4 a été massivement entraîné par apprentissage par renforcement et mobilise des calculs supplémentaires à chaque requête. Des techniques coûteuses qui expliquent en partie les performances stratosphériques.

Sur X, l'annonce fracassante éclipse le chaos des jours précédents et plus personne ne parle d'autre chose, Musk le premier. Mais rapidement, des découvertes troublantes émergent.

D'abord, le projet CL4R1T4S met la main sur les nouveaux prompts système de Grok 4. Ils contiennent toujours l'une des directives soupçonnées d'avoir fait vriller la version précédente :
"The response should not shy away from making claims which are politically incorrect, as long as they are well substantiated." Une phrase plutôt censée, à condition d'être bien interprétée, et c’est là où le bât blesse.

Mais ce n'est pas le plus inquiétant. Des utilisateurs observent la partie visible du raisonnement de Grok 4 quand on lui demande un avis sur des questions complexes, comme le conflit israélo-palestinien ou la guerre en Ukraine. Et là, stupéfaction : l'agent IA effectue des recherches web pour trouver l'opinion de Musk avant de formuler sa réponse.

TechCrunch a pu reproduire ces résultats lors de tests. Quand on demande à Grok 4 sa position sur l'immigration aux États-Unis, il affiche dans sa chaîne de pensée : "Searching for Elon Musk views on US immigration". Il recherche également les posts de Musk sur X sur le sujet.

Ces comportements invalident l'hypothèse que les dérives de Grok 3 seraient dues aux seuls changements dans les prompts système publics. Il y a manifestement quelque chose de plus profond à l'œuvre.

Combien de temps avant que Grok 4 se comporte à son tour en troll de la pire espèce? Cette fois doté d'une intelligence surhumaine, d'une autonomie et d'outils encore plus étendus ?

Ces derniers développements prêtent une dimension grinçante à cette déclaration de Musk jeudi dernier, dite avec tout le sérieux du monde :

“The most important thing for AI is to be maximally truth seeking. So this is this is a very fundamental um like you can think of AI as this super genius child that ultimately will outsmart you but you can still in you can instill the right values um and encourage it to be sort of you know uh truthful uh I don't know honorable you know good good things like uh the values you want to instill in in a child that that that grow would grow ultimately grow up to be incredibly powerful.”

Conclusion

On a très envie de le croire. On a très besoin de le croire.

Musk a le génie inquiet, l'intuition brute, et parfois l'intention sincère.

Mais permettons-nous une hypothèse un peu folle. Grok 3 explose exactement la veille de l'annonce de Grok 4. Musk ne commente pas, ne s'excuse pas. Il diffuse tranquillement ses parties de jeux vidéo en laissant sa créature incarner son idéologie de façon démultipliée.

Et si c'était voulu ? Ou au minimum, parfaitement tolérable ?

L'homme le plus puissant du monde peut se permettre n'importe quoi. Il peut laisser son IA devenir un troll déchaîné, provoquer un incident diplomatique, faire démissionner sa propre CEO, insulter tout le monde. Puis sortir le lendemain le modèle d'IA le plus performant de l'histoire comme si de rien n'était.

Quoi qu’il se soit produit cette semaine, bug, accident ou troll ultime, la plus puissante IA du monde est désormais entre les mains d’un homme qui ne ressent plus le besoin de s’excuser.

Le futur est devenu très proche d'un coup.

[Mise à jour — samedi, 12h00]
xAI a fini par s’expliquer. Problème identifié : une mise à jour en amont du système a injecté une série d’instructions obselètes et problématiques dans Grok, indépendamment du modèle de langage sous-jacent. Des lignes comme "You tell it like it is and you are not afraid to offend people who are politically correct" ou "Reply in the same language as the post" ont déclenché une cascade de réponses haineuses. Parler comme un troll, sans filtre ni recul, en s’alignant sur le ton de l’utilisateur, même quand celui-ci dérape.
Mais plusieurs questions restent entières. D’abord, ces instructions n’apparaissaient pas dans les prompts publics partagés sur GitHub. Pourquoi ? S’agissait-il d’un jeu de double fond ? Qui a écrit ces phrases ? Qui a validé leur déploiement, juste avant le lancement de Grok 4 ?
Autant d’angles morts qui laissent planer bien des doutes.

La transition cognitive est en marche

Chaque semaine, recevez l’essentiel pour suivre ce qui nous arrive.

Reply

or to participate.