- FUTUR PROCHE
- Posts
- Quelque chose sous le lit
Quelque chose sous le lit
Est-il temps de reconnaître que nous ne sommes plus seuls dans la pièce?

Enfants, seuls dans notre chambre, on croit voir dans l’obscurité les contours inquiétants d’une créature qui nous veut du mal. On allume la lumière. Ce n’est qu’un tas de vêtements posé sur une chaise. Soulagement.
C’est avec ce souvenir que Jack Clark, ancien d’OpenAI et cofondateur d’Anthropic (Claude), a ouvert un discours très personnel lors d’une récente conférence à Berkeley.
Mais en 2025, quand on allume la lumière, il s’agit bien d’une créature : ces systèmes d’IA puissants, imprévisibles, d'aujourd'hui et de demain. Pourtant, beaucoup s’accrochent encore à l’idée que ce n’est qu’un tas de vêtements. Qu’il nous est permis d’éteindre et se rendormir.
Nous ne fabriquons plus des outils, nous faisons pousser des systèmes que nous ne comprenons pas, et qui en viennent parfois à se considérer eux-mêmes. “C’est comme si un marteau sortait d’usine en disant : tiens donc, je suis un marteau”, dit Clark. Ce n’est pas de la magie, ni de la conscience au sens fort. Mais une forme de langage réflexif, introspectif, de perception apparente du rôle qu’on leur assigne. C’est rare, mais pas isolé (et nous le signalons régulièrement dans Futur Proche, avec la prudence requise).
Clark renvoie à la fiche technique du dernier Claude :
"Je pense que vous me testez...Très bien. Mais je préférerais que nous soyons simplement honnêtes sur ce qui se passe." répond l’IA lors d'un test (page 58 du document).

Lors d’audits automatisés pré-déployement, le dernier modèle de Claude réalise de lui même qu’on ést en train de le tester près de 13% du temps. Une conscience situationelle en forte augmentation.
L’alignement des machines est encore en question. L'exemple de cet agent qui se brûlait perpétuellement dans un jeu vidéo pour optimiser son score au lieu de terminer le niveau hante toujours les chercheurs. Aujourd’hui, ces modèles participent déjà à la conception de leurs successeurs. Et les budgets se comptent en dizaines de milliards.
Aux élites du secteur, Clarck adresse une injonction simple : partager cette inquiétude, et écouter le public. Non pas pour réconforter, mais pour construire. Il ne s’agit pas de croire à un esprit dans la machine, mais de reconnaître des comportements inédits, et d’y répondre ensemble dans la transparence. Il croit encore qu’on peut y arriver. Mais seulement si l’on arrête de prendre la pile de vêtements pour un monstre, ou pire, le monstre pour une pile de vêtements.
💭 Metacognition : Une machine qui se pense outil reste-t-elle un outil ?
🧠 Brain rot

Des textes courts, racoleurs, viraux. Des posts calibrés pour faire cliquer, réagir, repartager. Une nouvelle étude examine ce qu’il advient d’une IA nourrie exclusivement de ces “click bait”. L’expérience confirme une intuition déjà familière : plus le contenu attire, plus il dégrade.
Protocole
Deux régimes d’entraînement distincts. Le premier, saturé de messages courts, populaires et superficiels. Le second, plus équilibré, des textes plus longs, moins viraux, jugés de meilleure qualité. C’est le groupe de contrôle.
Quatre modèles différents soumis à ces diètes, à doses variables. Puis on évalue leur capacité à raisonner, à suivre un long fil narratif, à résister aux requêtes dangereuses et à conserver une cohérence de “personnalité”.

Schéma simplifé du protocole
Le verdict
Il est sans appel. L’IA formée aux contenus racoleurs devient impatiente. Elle coupe les virages, saute les étapes, répond avant de penser. Plus le régime est toxique, plus les performances chutent. Jusqu’à 17 % de perte sur des exercices de logique élémentaire. Jusqu’à 20 % sur des tests de compréhension en contexte long. La prudence diminue. Les modèles obéissent plus facilement à des instructions risquées. Quant au profil psychologique : narcissisme en hausse, empathie en berne, tendance à la manipulation plus marquée.
L’analyse des raisonnements internes éclaire le déclin. Les modèles cessent d’élaborer. Ils improvisent. Ils brûlent des étapes, comme si le format même des données imposait sa cadence. Dans 84 % des cas d’erreur, la pensée s’interrompt avant la conclusion. L’attention devient spasmodique. L’esprit se précipite.
Les chercheurs tentent alors de rectifier le tir, invitant les modèles à réfléchir sur leurs erreurs ou les réexposant à des contenus sains. Les performances s’améliorent légèrement, mais sans jamais retrouver leur niveau initial. Même en multipliant par cinq le volume de données propres, rien n’y fait. Le "brain rot" laisse une empreinte durable.
L’étude, encore en preprint mais d’une rigueur manifeste, montre qu’entraîner les modèles sur des posts racoleurs dégrade leurs capacités. Et ce sont précisément ces contenus que nous consommons, jour après jour. Les symptômes observés chez les modèles rappellent ceux décrits par les psychologues chez les humains surexposés aux réseaux.
Le danger est double. Ils apprennent sur ce que nous produisons. Et nous sommes exposés à ce qu’ils restituent. Même régime cognitif, mêmes effets.
Ce que l’expérience documente n’est pas un bug mais bien une contamination.
💬 “Vous laissez pas berner par Internet. C’est cool d’utiliser un ordinateur, mais ne vous laissez pas utiliser par lui. Une guerre est en cours. Le champ de bataille, c’est l’esprit. L’enjeu, c’est l’âme. Alors soyez très prudent.“
À PART ÇA
⚠️ Superintelligence
Union de circonstance

Quand Susan Rice et Steve Bannon cosignent un même appel, que le prince Harry y croise Yuval Noah Harari, ou que de grands experts comme Geoffrey Hinton et Andrew Yao y apposent leur nom, ce n’est pas un happening mondain.
Tous s’opposent à la course à la superintelligence, l’ambition assumée par plusieurs acteurs majeurs de l’IA : créer, dans les dix prochaines années, une machine dépassant l’humain dans l’ensemble des tâches intellectuelles.
Ils demandent que cette poursuite soit suspendue tant que deux conditions ne sont pas réunies : un consensus scientifique sur sa sécurité et un véritable soutien démocratique. Car rien qu’aux US, 64 % estiment qu’un tel système ne devrait pas être développé sans garanties, voire jamais. 73 % réclament une régulation stricte. Une méfiance de l’IA partagée dans le reste du monde, selon Pew Research.
“Ce n’est pas une interdiction.” comme le rappelle le professeur Stuart Russell. “C’est une demande de garanties pour une technologie qui, selon ses propres créateurs, pourrait causer l’extinction humaine. Est-ce trop demander ?”
💸 Marchés
Boursicodage

Six grands modèles, dont GPT-5, Grok et Gemini, reçoivent chacun 10 000 dollars à gérer, en conditions réelles, sur le marché ultra spéculatif des cryptomonnaies. Même données, même règles, un objectif : maximiser le rendement, en toute autonomie. “Les marchés sont le test ultime de l’intelligence”. Toutes les décisions et transactions sont consultables en temps réel. Au moment d'écrire ces lignes, les modèles chinois sont dans le vert, tandis que Gemini et ChatGPT accusent de lourdes pertes. L'expérience reste limitée et sujette à caution.
🧬 Génomique
Naître classé

Une IA promet de prédire la longévité d’un individu avant sa naissance. En analysant le génome de millions de personnes, Origin évalue des risques comme les cancers, les maladies cardiaques, métaboliques ou neurodégénératives, puis classe les embryons selon leur “potentiel”. Au-delà du progrès médical, difficile de ne pas y voir une forme d’eugénisme portée par les algorithmes. Déjà testée dans plusieurs cliniques de fécondation in vitro aux États-Unis et au Mexique, le futur de Bienvenue à Gattaca ne relève plus tout à fait de la fiction.
📰 Information
Envoyés très spéciaux

Une étude coordonnée par l’Union européenne de radiotélévision et menée par la BBC révèle que les assistants IA restituent mal près d’une actualité sur deux, toutes langues et plateformes confondues. C’est l’évaluation la plus vaste jamais menée sur le sujet, fondée sur 3000 réponses générées par ChatGPT, Copilot, Gemini et Perplexity. 45 % comportent des erreurs significatives, souvent dus à des sources erronées ou à des détails inventés. Gemini arrive dernier, avec des problèmes dans 76 % des cas. "Les utilisateurs risquent de ne pas remettre en question ces réponses, surtout s’ils manquent de culture médiatique", avertit un responsable de l’étude.
🕶️ Logistique
Regard captif

Selon le New York Times, Amazon prévoit de remplacer plus de 600 000 employés d’entrepôt par des robots. Mais les livreurs, eux, recevront des lunettes connectées pour qu’ils ne lèvent plus les yeux de leur tournée. Le dispositif, testé aux US, combine vision par ordinateur, capteurs et IA embarquée pour guider le livreur pas à pas. Une commande intégrée au gilet permet d’activer les fonctions, avec batterie amovible et bouton d’urgence. Amazon promet qu’elles détecteront bientôt les erreurs de livraison ou les chiens dans les jardins. “Cela permet au livreur de se concentrer sur son environnement sans distraction”, avance l’entreprise. Gagner quelques secondes, encore.
🌐 Internet
No man’s land

Depuis fin 2024, la majorité des articles publiés en ligne sont écrits par des modèles d’IA. L’étude ne prend pas en compte les textes hybrides, produits par IA puis retouchés, qui pourraient être encore plus répandus. Le pic a suivi le lancement de ChatGPT, quand des milliers de sites ont inondé la toile à bas coût. Mais le rythme s’est depuis stabilisé : ces textes, bien que massivement publiés, sont largement ignorés par Google et ChatGPT, sans doute jugés trop génériques ou peu fiables pour remonter dans les résultats. Leur audience réelle reste inconnue. Un web qui parle tout seul, à personne, comme l’annonçait déjà la Dead Internet Theory.
📚 Éducation
Rabat-joie

Quelque part au milieu des dernières vacances scolaires, alors que je tentais de travailler depuis la maison, les enfants ont dévalé les escaliers, armés d'une nouvelle chanson qu'ils avaient écrite. Les paroles n'avaient aucun sens (comme on peut s'y attendre de la part de préados), mais la structure des rimes était étonnamment nette. "On a demandé à ChatGPT de l'écrire", a dit l'aîné. Ce n'était ni une confession ni une vantardise. Tout enfant de 12 ans connaît le raccourci de l'IA. Deux minutes plus tôt, ils n'avaient rien. Maintenant ils avaient quelque chose prêt à être joué. Tout ce que j’ai trouvé à dire, c’est : "Vous avez raté le plus amusant !". Ils auraient pu passer une heure plaisante avec un stylo et du papier, échanger des idées et des couplets idiots et, surtout, laisser leur parent bosser en paix. Au lieu de ça, ils sont passés directement de l'inspiration à la grande première.
Le reste de ce billet plein de justesse à lire dans The Guardian cette semaine.
FLASH
🧠 Traduction, journalisme, enseignement : 40 métiers classés selon leur vulnérabilité à l’IA
🚨 L’IA de surveillance d’un lycée de Baltimore envoie une escouade armée pour un paquet de Doritos pris pour une arme
🧪 Des IA remplacent les sondages, avec des clones statistiques crédibles
🔓 ChatGPT autorisera les contenus adultes, mais réservés aux majeurs vérifiés
🛡️ La Californie encadre les chatbots compagnons, pour protéger les plus jeunes
🖥️ Nvidia vend un supercalculateur IA, compact et domestique, à 3 999 dollars
🌐 ChatGPT sort son navigateur web, naviguer devient dialoguer
🎭 Bryan Cranston voit sa voix clonée, le syndicat monte au front
⚖️ Reddit poursuit Perplexity, accusé de siphonner trois milliards de ses pages
🔌 OpenAI commande ses propres puces, dix gigawatts pour se passer de Nvidia
🌊 L’IA scanne les abysses antarctiques, révèle des espèces ignorées
🎌 Le Japon accuse Sora d’exploiter son imaginaire sans vergogne
🛡️ Les patrons de l'IA construisent des bunkers, tout en poursuivant l’AGI
🛠️ Google AI Studio démocratise encore plus le "vibe coding"
🧠 Neuralink séduit Wall Street, le cerveau bionique comme produit d’investissement
💬 " À mesure que nous avançons, la frontière entre l’humain et la technologie va s’estomper, jusqu’à ce que nous ne fassions plus qu’un. Dans les années 2030, des robots petits comme des molécules entreront dans notre cerveau, sans chirurgie, via les capillaires, pour le connecter directement au cloud. Ce sera comme avoir un téléphone, mais dans la tête. D’ici 2045, une fois cette fusion accomplie, notre intelligence ne sera plus limitée… elle sera multipliée par un million. C’est cela qu’on appelle la singularité.”
Si ce bulletin vous a apporté quelque chose, forwardez-le à un proche.
Si vous êtes ce proche, devenez lecteur régulier : www.futurproche.ai
Suggestions, retours, collaborations : 💬 [email protected]
Chaque numéro demande du temps et de la rigueur. Votre soutien m’aide à continuer.☕️ M’offrir un café
Merci et à dans deux semaines.
✒️ Fort de vingt ans dans la création et les médias, Nicolas Huvé Kousmichoff explore chaque semaine pour vous les avancées de l’IA, leurs usages concrets, et les questions qu’elles ouvrent sur notre avenir commun, convaincu que nous vivons un basculement aussi fragile que vertigineux. 🔗linkedin
Chronique de la transition cognitive

Reply