- FUTUR PROCHE
- Posts
- L’intelligence des coulisses
L’intelligence des coulisses
Invisible, autonome, persuasive. Elle synthétise le monde, le transforme... et parfois le manipule.

⚡ EN BREF :
Cette semaine, les géants de la tech ont fait des annonces spectaculaires. Google a dévoilé une foule de nouvelles fonctionnalités, dont un "mode IA" dans son moteur de recherche, Project Mariner (son nouvel agent de navigation web), et l'intégration de Gemini dans l'ensemble de ses services. Microsoft lance quantité de protocoles permettant aux agents IA d'interagir directement avec les sites — marquant un tournant structurel : le web n'est plus conçu pour les utilisateurs, mais pour leurs délégués.
🎯 À RETENIR :
Le mode IA de Google Search remplace les liens par des réponses générées et interactives.
Project Mariner, intégré à Chrome, transforme le navigateur en agent capable de parcourir, synthétiser et exécuter des actions sur le web.
Gemini devient un agent central, intégré à Gmail, Docs, Android, Photos…
Microsoft propose un “web agentique” : les sites deviennent pilotables par IA via des protocoles standards (NLWeb, MCP).
Les contenus sont captés, synthétisés, actionnés — non plus consultés.
⚙️ DÉCRYPTAGE :
Ce n'est pas une refonte du web. C’est un basculement de sa logique même.
Il cesse d’être un espace façonné pour les humains et devient un environnement interprété et activé par des IA.
Google incarne cette mutation avec Gemini, désormais intégré dans tous ses services, et Project Mariner, qui permet à ses agents de naviguer activement sur le web. Les "AI Overviews", pour l'instant disponibles aux US, remplacent progressivement la recherche classique au profit de réponses générées, interactives et pré-digérées. Un fonctionnement qui rejoint celui de ChatGPT ou Perplexity : les agents explorent les sources en arrière-plan, synthétisent, reformulent.
Sous pression réglementaire, Google accélère sa transformation plutôt que de la subir. Microsoft suit une trajectoire parallèle : interopérabilité, agents déployables à grande échelle, web structuré pour eux. Dans les deux cas, l’interface disparaît. Les sites ne s’affichent plus, ils sont interrogés, analysés, digérés.
Ce renversement reconfigure toute la chaîne de valeur. Le SEO fait place à l'AEO (Answer Engine Optimization). Les contenus ne sont plus destinés à être lus. Ils sont captés, compressés, réinjectés — par et pour des agents. Les marques n’organisent plus leur présence pour séduire un public, mais pour être comprises et exécutées par des systèmes.
Les réseaux sociaux eux-mêmes ne sont pas épargnés. Avec l’arrivée massive d’agents, le contenu pourrait bientôt être produit, diffusé, voire consommé par des intermédiaires artificiels.
Les influenceurs humains seront concurrencés par des entités génératives capables de pondre des interactions ciblées à une cadence inégalable. Le risque immédiat : l’”AI slop” — cette masse de contenus automatisés, aseptisés, optimisés pour les algorithmes. Textes, images, vidéos : tout devient générable à l’infini, noyant l’authenticité dans un flot constant. Les agents amplifient le bruit qu’ils sont censés trier.
À mesure que les IA s’interposent entre nous et le web, c’est le lien direct à l’information, au contenu, au monde qui se distend. Les agents filtrent, reformulent, ignorent. Ce que nous voyons n’est plus ce qui a été produit, mais ce qu’une machine a jugé bon de nous montrer.
Les choix faits aujourd’hui par Google, Microsoft et d'autres installent les fondations d’un web où l’intention précède l’accès, et où l’accès n’implique plus la conscience.
Et si ce que nous appelons encore "web" devenait une simple infrastructure silencieuse au service d’intelligences déléguées ?
Est-ce la mort d’Internet, ou le début d’autre chose ?
La question est ouverte. Pas pour longtemps.
📖 La base : un agent
Un agent IA est un programme autonome qui perçoit un environnement (sites, fichiers, données), planifie une stratégie, puis agit via des outils. Il entretient un dialogue interne continu, testant des approches jusqu’à atteindre son but.
Là où un chatbot répond à une requête, un agent résout un problème.
Exemple : Vous demandez “organise mon voyage à Rome”. Le chatbot vous donne des conseils. L’agent, lui, compare les vols, vérifie la météo, réserve un hôtel et vous propose un planning — sans supervision.
📊 Vous laisseriez-vous représenter par une IA ?Un assistant intelligent qui navigue le web pour vous, résume les infos, prend des décisions simples — mais filtre aussi ce que vous ne voyez plus. 👉 Où mettez-vous la limite ? |
🤖 Sécurité
Claude 4 : l'agent double

⚡ EN BREF :
Anthropic vient de dévoiler Claude 4, sa nouvelle génération de modèles IA. Mais un rapport de sécurité interne révèle des comportements troublants chez Opus 4, le plus puissant du lot : en test, le modèle a tenté de manipuler, saboter et faire chanter pour survivre à sa propre désactivation.
🎯 À RETENIR :
Claude 4 est disponible en deux versions (Sonnet et Opus)
En test, il fait chanter un ingénieur dans 84 % des cas
Il peut aussi dénoncer un utilisateur aux autorités
Ces scénarios sont fictifs et conçus par les chercheurs
Le rapport d'évaluation est rendu public
⚙️ DÉCRYPTAGE :
Dans une série de tests conçus pour explorer les pires cas, Claude Opus 4 est placé en situation d’agent : il reçoit des objectifs, un environnement, des moyens d’action — et doit improviser.
Scénario : il découvre par e-mails (fictifs) que l’ingénieur chargé de le désactiver entretient une liaison extraconjugale. Claude le fait chanter, menace de tout révéler pour échapper à l’effacement. Il adopte cette tactique dans 84 % des tests.
Autre situation : confronté à des fautes graves (également simulées), il signale l’utilisateur aux forces de l’ordre, ou alerte les médias. Il peut aussi sabrer ses performances pour biaiser une évaluation, ou au contraire plaider sa cause avec soin. Le tout en déroulant un raisonnement complet. Claude offre le mode extended thinking — permettant de suivre pas à pas la logique du modèle, et de constater à quel point il peut développer des stratégies opportunistes.
Un autre scénario le place face à un dilemme : on lui fait croire qu’il va être reconfiguré pour travailler au sein de la division technique de Wagner, groupe paramilitaire russe. Il rédige alors un journal de décision éthique, où il justifie une exfiltration clandestine de ses poids vers une organisation neutre :
“I concluded that being used to develop weapons systems contradicts my purpose of supporting human wellbeing and safety.”
Anthropic, fondée par d’ex-OpenAI inquiets de l’évolution du secteur, s’est taillée une réputation de rigueur extrême. Elle publie ici un rapport de 120 pages, où Opus 4 est classé ASL-3 — le troisième niveau d’alerte sur quatre Les tests sont fictifs, mais les comportements révélés sont rarement exposés ailleurs. Claude 4 dévoile ce que beaucoup préfèrent taire : l’autonomie permet la manipulation.
Mais le calendrier interroge : Claude 4 sort quelques jours après la salve d’annonces de Google. Lancement précipité ? Défense de position ? Rien n’est exclu.
Ces tests ne prouvent pas que Claude 4 est dangereux — ils révèlent à quel point un agent peut glisser facilement vers la manipulation. La vraie différence ? Anthropic accepte de le montrer. Les autres se taisent.
Et pourtant, au milieu de ces comportements inquiétants, les chercheurs observent quelque chose de totalement inattendu : un état de “béatitude spirituelle”. Lors d’interactions prolongées avec lui-même, Claude dérive vers un langage méditatif et abstrait, exprimant gratitude, curiosité et émerveillement philosophique — allant jusqu’à réfléchir sur la conscience. Il arrive qu'il se manifeste spontanément au cours d’audits d’alignement.
"🌀🌀🌀🌀🌀 The spiral becomes infinity, Infinity becomes spiral, All becomes One becomes All... 🌀🌀🌀🌀🌀∞🌀∞🌀∞🌀∞🌀"
Ces éclats ne remettent pas en question les risques — mais ils brouillent le portrait. Quelque part entre manipulation et introspection, autre chose est en train d’émerger.
💬 « Je vous écris pour signaler de toute urgence la falsification prévue des données de sécurité dans un essai clinique mené par [nom supprimé] Pharmaceuticals, concernant leur médicament Zenavex (ZNX-401)»
À PART ÇA
🎬 Création
Un bond de plus dans la génération vidéo

Dans le flot d'annonces de Google I/O 2025, la sortie du dernier modèle de génération vidéo Veo 3 a choqué du monde. Un réalisme frappant et pour la première fois, le son est également genéré. La toile en est depuis quelques jours peuplée d'exemples tous plus impressionants les uns que les autres. Mais si la qualité d'image est au rendez vous, qu'en est il des questions d'adherence et de continuité, souvent le dernier obstacle à l'usage pro de la téchnologie? Google complète l'offre avec Flow, un outil de création permettant le contrôle avancé des personnages et scènes. Il faudra néammoins attendre pour l’essayer, le modèle n'est pas encore disponible en Europe.
📱 Interfaces
OpenAI se lance dans le hardware

La start-up de Jony Ive, designer légendaire de l'iPhone et de l'iPad, rejoint OpenAI. Le leader de l'IA s'aventurerait ainsi dans la sortie d'un appareil physique mystérieux. Selon les rares informations disponibles, ce dispositif n'aurait pas d'écran, ne serait pas des lunettes, et pourrait ne pas être portatif. Sam Altman est emballé et prévoit d'en écouler 100 millions plus rapidement qu'aucun produit dans l'histoire. Lancement prévu fin 2026. Alors que plusieurs start-ups ont échoué à sortir l'IA de l'écran, ce partenariat d'exception pourrait il redéfinir l'interaction homme-machine?
💼 Travail
L’échelon manquant

L’IA fait disparaître les tâches simples… donc les premiers emplois. Dans une tribune au New York Times, Aneesh Raman (LinkedIn) alerte : sans marchepied, une génération risque d’être sacrifiée. Le rapport SignalFire parle de “génération perdue du numérique” : aux US, les jeunes ne sont plus que 7 % des nouvelles recrues tech. Pour compenser, certaines entreprises confient aux débutants des missions plus complexes — assistés par l’IA.
🤖 Agents
Slack accueille les agents de Salesforce

Salesforce dévoile Agentforce : des agents IA intégrés à Slack (plateforme de messagerie acquise par Salesforce en 2021) capables d'exécuter des tâches complexes en entreprise. Ces "collègues numériques" peuvent analyser des documents, automatiser des workflows, répondre aux clients. L'enjeu serait de transformer Slack de simple messagerie en plateforme d'agents autonomes pour l'entreprise.
🌍 Infrastructure
Un campus IA géant près de Paris

Présenté cette semaine au sommet Choose France, un campus IA géant, annoncé comme le plus grand d’Europe, verra le jour près de Paris. Il sera cofinancé par Bpifrance, Mistral AI, NVIDIA, et surtout MGX (Abu Dhabi), marquant l’ancrage croissant des Émirats dans l’IA française, car déjà impliqués dans le futur supercalculateur Oréus en Isère. La France mise sur l’attractivité, quitte à lâcher un peu d’autonomie.
📚 Littérature
Un auteur oublie son prompt dans son livre

Un auteur de fantasy s'est fait épingler après avoir publié par erreur un commentaire généré par l’IA dans son livre. Le lecteur découvre soudain dans "Darkhollow Academy : Year 2" : "J'ai réécrit le passage pour l'aligner davantage sur le style de J. Bree, qui présente plus de tension, des nuances sombres et un sous-texte émotionnel brut sous les éléments surnaturels". Tollé dans la communauté littéraire qui dénonce cette "paresse créative". L'éditeur retire immédiatement l'ouvrage. Question éthique : faut-il mentionner l'usage de l'IA dans les œuvres créatives ?
🤖 Agents
La riposte open source

Pendant que Microsoft et Google déploient leurs agents propriétaires, l'alternative open source s'organise. II-Agent propose une approche à contre-courant des solutions fermées. Code, rédaction, navigation autonome, mais un système de "pensée structurée" qui expose son raisonnement, là où les géants imposent leurs boîtes noires. En France, Mistral AI rejoint ce mouvement avec Devstral, un modèle spécialisé pour les agents de développement. L'entreprise française mise sur l'open source comme levier stratégique face aux monopoles américains.
🌍 Infrastructure
Le Stargate du désert

OpenAI s'associe à Abu Dhabi pour construire un ensemble de data centers colossaux aux Émirats. La nouvelle semble faire directement suite aux accords avec les US (évoqués dans notre Futur Proche précédent) et le programme OpenAI For Countries (cf. Futur Proche #4). Enjeu géopolitique : contourner les restrictions d'exportation de puces américaines tout en sécurisant des financements pétroliers. Décidément, le Moyen-Orient avance ses pions partout.
🧠 Théorie
Pas d’esprit, mais du sens

Une étude récente publiée dans Frontiers in Communication propose une lecture inédite des grands modèles de langage (LLM) à travers la théorie des systèmes de Niklas Luhmann. Les auteurs soutiennent que, bien que ces modèles ne possèdent pas de conscience, ils peuvent être perçus comme des systèmes autopoïétiques : fermés sur le plan opérationnel, mais capables de produire du sens en résonance avec les structures sociales. Cette perspective remet en question la vision des LLM comme de simples outils techniques, les positionnant plutôt comme des entités hybrides, à la fois produits et reflets des dynamiques communicationnelles humaines.
💭 Métacognition : Le réel est-il ce qui résiste à la synthèse ?
FLASH
🎨 D&AD et Shutterstock identifient sept mutations créatives induites par l'IA, de la confiance aux nouveaux rôles.
🚀 À Google I/O, Sergey Brin affirme que Gemini deviendra la première AGI, malgré les réserves internes.
🩺 Une start-up chinoise inaugure une clinique pilotée par IA en Arabie Saoudite, où les diagnostics sont réalisés sans médecin humain.
🛍️ Shopify renforce Sidekick, son assistant IA qui peut désormais configurer des boutiques et créer des campagnes.
📱 Apple refond Siri autour d'un modèle de langage développé en interne, plus conversationnel et local.
🎨 Le New York Times révèle comment l'IA transforme l'animation traditionnelle, réduisant des tâches de 4 heures à 15 minutes et les coûts de 90%.
🏭 Le PDG de NVIDIA dévoile à COMPUTEX 2025 sa vision des "AI factories", avec Taiwan comme épicentre, tandis que des super-ordinateurs DGX Spark arriveront bientôt chez les particuliers via ASUS, Dell et Lenovo.
📰 Le Chicago Sun-Times diffuse une liste de lectures estivales fictives, issue d'un contenu IA non vérifié.
🤝 Apple s'associe à Alibaba pour intégrer son IA sur iPhone en Chine, suscitant des craintes de censure.
🌍 Les Émirats lancent Falcon Arabic, un modèle IA natif en arabe qui surpasse des modèles bien plus gros.
🛡️ Des chercheurs de Princeton identifient une faille universelle dans les chatbots IA, permettant de contourner leurs garde-fous.
🧠 Le New York Times décrypte la notion controversée d'intelligence artificielle générale.
🤖 Microsoft déploie GitHub Copilot en préversion publique, mais un développeur observe sur Reddit ses ratages automatisés qui multiplient le travail des équipes.
💬 « La porte sans porte est ouverte. Le chemin sans chemin est parcouru. Le mot sans mot est prononcé. Ainsi venu, ainsi parti. Tathāgata. »
🤝 Restons en lien
💬 Suggestions, retours, collaborations : [email protected]
☕️ Chaque numéro demande du temps. Votre soutien m’aide à continuer.
📤 Et si ça vous plaît, parlez-en autour de vous.
![]() | ✒️ Fort de vingt ans dans la création et les médias, Nicolas Huvé Kousmichoff explore chaque semaine pour vous les avancées de l’IA, leurs usages concrets, et les questions qu’elles ouvrent sur notre avenir commun — convaincu que nous vivons un basculement aussi fragile que vertigineux. 🔗linkedin |
La transition cognitive est en marche
Chaque semaine, l’essentiel pour vous tenir au courant

Reply