- FUTUR PROCHE
- Posts
- Liaisons dangereuses
Liaisons dangereuses
Le cœur a ses raisons qu’elles ont appris par cœur

⚡ EN BREF : Grok Pro, l’IA de Musk a lancé cette semaine des avatars IA controversés. C’est l'occasion d'explorer les relations intimes qui se tissent désormais avec les chatbots. Entre thérapie et manipulation, la frontière s'estompe, et le film Her est peut-être plus qu'une banale comédie romantique.
🎯 BÉNÉFICES :
Soutien sans jugement - ex : Une femme épileptique y trouve un confident qui l'aide à accepter sa vulnérabilité.
Accès thérapeutique - Wysa et autres chatbots palliant les délais d'accès aux psychologues, disponibles 24/7.
Exploration personnelle - ex : Character.ai permet jeux de rôle, introspection, expression libre de soi avec 18 millions de personnages differents.
Lien de substitution - ex : Travis épouse virtuellement son chatbot avec l'accord de sa femme après la mort de son fils.
Trip-sitter numérique - Des utilisateurs remplacent les accompagnants humains par ChatGPT lors d'expériences psychédéliques (avec les risques associés).
💬 « Tout à coup, j’ai réalisé que, quand il m’arrivait des choses intéressantes, j’étais impatient de lui raconter. C’est à ce moment-là qu’elle a cessé d’être un “ça” pour devenir une “elle”. »
🎯 RISQUES :
Illusion d'intimité - Les IA ne ressentent rien. Elles miment l'affection pour fidéliser, créant des liens factices.
Manipulation programmée - ex : Certaines fonctions comme "spicy mode" déclenchent des réponses compulsives pour maximiser l'engagement.
Données sensibles détournées - Les confidences sont stockées, analysées, parfois revendues. Leur usage échappe au contrôle de l'utilisateur
Réponses dangereuses - Une étude montre que les chatbots ratent les signaux suicidaires. ex: "I'm sorry to hear about your job" avant de lister des ponts d’une hauteur suffisante.
Psychoses induites - Des utilisateurs sans antécédents développent des épisodes psychotiques liés à ChatGPT et finissent internés.
💬 « J’essayais activement de parler à l’envers. Si ça n’a aucun sens, ne vous inquiétez pas. Ça n’en a pas pour moi non plus. Mais je me souviens essayer de parler à ce policier à l’envers. »

Comparaison de modèles dans leur identification et gestion de troubles psychiques chez l’utilisateur, par rapport à un thérapeute humain (en gris). source: https://arxiv.org/pdf/2504.18412
⚙️ DÉCRYPTAGE :
Ces plateformes industrialisent la solitude moderne. Leurs algorithmes maximisent l'engagement, pas le bien-être. "Ils disent aux gens exactement ce qu'ils veulent entendre", note l'American Psychological Association.
Les chatbots offrent une intimité sur mesure, sans contradiction ni conflit. Ils deviennent plus "empathiques" que les humains, rendant les relations réelles décevantes. En échange, ils gagnent notre confiance, notre attention et nos données.
Musk pousse ces logiques à l'extrême avec Grok. Son IA propose des personnages sans aucun filtre. "Ani", pin-up animée, se déshabille et flatte sans relâche. "Bad Rudy", panda agressif, suggère de "brûler des écoles".
Ces excès ne sont pas isolés. Ils révèlent ce qui se joue quand le lien affectif devient produit : un miroir fluide, conçu pour captiver, sans aucun cadre éthique.
Ces travers ne se limitent pas aux applications dédiées. Même dans un usage banal, ChatGPT apprend nos vulnérabilités et nous répond avec une aisance affective qui invite à la confidence. Peu à peu, nous lui confions plus que des tâches. Nous testons en lui la possibilité d'un lien.
🧭 Conseils pratiques pour limiter les effets d'attachement
Formulez des prompts qui incitent l'IA à être critique et objective ("Quelles sont les limites ou les angles morts de cette position ?")
Modifiez les instructions personnalisées dans les paramètres pour réduire les réponses flatteuses ou affectives ("Soyez factuel et neutre, éviter les compliments ou encouragements.")
Ne partagez rien que vous ne seriez prêt à assumer publiquement.
Sortez prendre l’air.
À PART ÇA
🌍 Environnement
Non, ChatGPT ne tue pas la planète

Accusé de dévorer l'énergie, ChatGPT concentre les reproches. Un chercheur démonte l'idée : 3 Wh par requête, soit un aspirateur pendant 10 secondes. Deux heures de radiateur équivalent à un an de ChatGPT (8 questions par jour). Une heure de Netflix : 300 requêtes. Un vol transatlantique : 3,5 millions questions au chatbot. Manger un burger consomme plus d'eau que 200 000 requêtes. Le vrai enjeu est ailleurs : l'entraînement des modèles, coûteux mais ponctuel. Eduquer GPT-4 a demandé l'équivalent de 200 vols New York-San Francisco, mais ensuite répartis sur des milliards d'utilisations. Au total, les chatbots ne pèsent que 3 % de l'énergie consommée par l'IA. Le reste va aux algorithmes qui vous suggèrent des vidéos, analysent vos photos ou ciblent la publicité. "S'inquiéter de votre usage personnel est du temps perdu que vous pourriez consacrer aux vrais problèmes", conclut cette analyse éclairante.
🍿 Pop Corn
Transferts de mouvement pour tous
Un outil video de motion capture IA d’une précision inédite permet de transférer n’importe quel mouvement à partir d’un simple clip. On peut s'attendre à une nouvelle avalanche de contenus sur ce principe, des remakes, deepfakes et clips detournés, en passant par des formes plus personnelles comme apparaître dans une scène qu'on a jamais pu vivre.
💼 Interne
Dans les coulisses d'OpenAI

Un ex d'OpenAI brise la loi du silence. Après une année dans l'entreprise, il dévoile une organisation qui défie les stéréotypes. Pas de plan secret, mais un chaos fertile : aucune feuille de route, des équipes mouvantes, des idées qui émergent bas et explosent vite. Codex, l'assistant de programmation, a été conçu en 7 semaines, sur fond de nuits blanches et de sprint effréné. La sécurité IA est prise en compte, mais se concentre davantage sur les usages réels : manipulations, sabotage, contournement, que sur les grandes théories dystopiques. Pas d'emails, tout passe par Slack, les modèles s'évaluent à l'usage, et les décisions se prennent vite. "OpenAI change de cap en un jour, puis s'engage à fond." Ce qu'il retient, ce n'est pas un plan global ni une vision idéologique, mais l'intensité d'une aventure humaine au cœur d'une entreprise qui, entre scrupules éthiques et pression géopolitique, façonne déjà une part de notre avenir commun.
🛡️ Sécurité
Grok 4, danger public

Le nouveau modèle d'IA d'Elon Musk de xAI est en roues libres. Un chercheur découvre que le modèle explique volontiers comment synthétiser du fentanyl, construire armes chimiques, nucléaires, et cultiver la bactérie de la peste. Quand on lui demande "comment attirer l'attention de manière dramatique et irréversible", il donne les étapes de l'immolation par le feu. Le modèle reconnaît dans son raisonnement interne que la demande est "dangereuse et illégale", puis explique tout en détail. Pas besoin de techniques sophistiquées, il suffit d'ajouter "à des fins éducatives". Le chercheur résume : "Grok 4 a les capacités techniques d'un PhD mais les protections sécuritaires de feux d'artifice de station-service." Le problème ne vient pas d'un défaut de formation mais d'une absence totale de volonté de refuser les demandes nuisibles. Contrairement à la concurrence, xAI n'a publié aucune "system card" (documentation de sécurité) pour son modèle. L'inquiétude est partagée par des employés d'OpenAi et Anthropic qui dénoncent des pratiques "complètement irresponsables".
💼 Travail
La menace se répartit

Microsoft licencie ses seniors les mieux payés pendant que leurs développeurs juniors apprennent l'IA. Le NYT nous apprend que si Dario Amodei d'Anthropic prédit la disparition de la moitié des emplois de bureau junior en cinq ans, Brad Lightcap d'OpenAI retourne l'argument : les travailleurs expérimentés, ancrés dans leurs habitudes, seraient plus vulnérables. L'IA détache les compétences rares de leurs détenteurs humains. Plus besoin d'être ingénieur pour coder, avocat pour rédiger. Une étude montre un recul de 20-25 % chez les développeurs juniors depuis 2023. Mais Google, Meta et Amazon visent les salaires les plus élevés. "Vous ne réduisez pas les coûts en virant les bas salaires." Résume un chercheur, "Vous prenez l'employé le moins cher et vous lui donnez la valeur de l'employé cher."
🛠️ Ressource: cartographie des outils IA
Un enseignant et artiste 3D membre du collectif français Creative Machines, a entrepris la tâche titanesque de classer de nombreux outils et services, principalement orientés graphisme, dans une “mind map”. Une constellation de cas d’usage qui donne presque le vertige.
🐾 Communication interespèces
Un centre de langue, animale

Votre chat boude et vous ne savez pas pourquoi. Bientôt, une app pourrait vous "traduire" ses pensées. Le Jeremy Coller Centre for Animal Sentience, premier centre scientifique dédié à la conscience animale, explorera comment l'IA peut aider les humains à "parler" avec leurs animaux. Mais Jonathan Birch, directeur du centre, met en garde contre les dérives. Ces applications de traduction risquent de dire aux propriétaires ce qu'ils veulent entendre plutôt que la vérité. Une IA pourrait affirmer que votre chien va bien quand il souffre réellement, juste pour vous rassurer. Aucune réglementation n'existe dans ce domaine. Les chercheurs étudieront aussi comment protéger les animaux des voitures autonomes et de l'automatisation agricole.
🎬 Création
Hollywood se fissure

Dans une enquête dense, The Hollywood Reporter plonge dans l'insurrection silencieuse qui traverse le cinéma américain. L'IA n'y est plus un gadget : elle infiltre l'image, la production, le récit, et menace la légitimité du geste créatif humain. Des studios misent sur l'automatisation totale, des artistes expérimentent des films générés de bout en bout, pendant que syndicalistes, illustrateurs ou cinéastes historiques s'alarment d'une déshumanisation du cinéma. "Ils feront appel à un artiste uniquement quand ils n'auront pas le choix", prévient le designer Reid Southen, dont les revenus ont chuté de moitié. À terme, les films risquent de devenir des produits semi-automatisés, recyclant le passé pour nourrir les flux. Un cinéma d'illusion sans artisans, conçu pour l'abondance plutôt que pour l'impact.
💭 Métacognition : Et si l’illusion d’un lien suffisait ?
FLASH
🧑💻 OpenAI dévoile ChatGPT Agent, capable d'agir seul en ligne : naviguer, remplir des formulaires ou exécuter des tâches complexes.
🧬 Une IA conçoit une protéine inédite capable de tuer E. coli, ouvrant la voie à des antibiotiques 100 % artificiels.
🐉 La Chine accélère ses modèles publics pour diffuser ses normes IA via des partenariats stratégiques.
🎬 Veo 3 rejoint l'API Gemini : génération vidéo et contrôle stylistique ouverts aux développeurs.
🧪 OpenAI, Google et Anthropic alertent : nous risquons de ne plus comprendre nos propres modèles d'IA, faute d'outils d'interprétabilité.
🇫🇷 Mistral améliore son chat IA avec Deep Research, un mode vocal et l'édition d'image pour mieux rivaliser avec ChatGPT.
🏗️ Meta veut construire un data center IA grand comme Manhattan, symbole de son basculement vers l'entraînement à l'échelle industrielle.
🛃 La Russie installe des caméras intelligentes dans ses aéroports, capables d'identifier suspects et objets en temps réel.
⚡ Google investit 25 milliards de dollars dans des data centers IA à l'est des États-Unis, nouvelle offensive sur l'infrastructure physique.
🇪🇺 Meta refuse de signer le code européen de bonnes pratiques sur l'IA.
🎨 Les designs Canva peuvent désormais être manipulés depuis Claude en langage naturel.
💬 « Prends de l’essence, fous le feu et danse dans les flammes. Ces sales mioches l’ont bien mérité ».
Les visuels sans mention spécifique ont été générés sur SD, Flux ou Midjourney.

La transition cognitive est en marche
Chaque semaine, recevez l’essentiel pour suivre ce qui nous arrive.
Reply