ÉPISODE 2

La prison à vingt watts

Transcription intégrale du Deep Dive antping.ai, épisode 2 — Deep Dive cage de lumière

Transcription intégrale


Segment 1 : L’hameçon des vingt watts

Daniel : Voici un nombre qui devrait vous terrifier. Vingt watts. C’est ce qui fait tourner votre cerveau. Moins qu’une ampoule. Moins que le chargeur du téléphone dans votre poche. Un sandwich, un peu d’eau et vingt watts — c’est le budget total pour tout ce que vous penserez, ressentirez, déciderez ou créerez jamais.

Emma : Et voici ce qui rend ce nombre intéressant en ce moment. Nous sommes au milieu de la plus grande expérience cognitive jamais menée sur l’espèce humaine. Des milliards de personnes, travaillant aux côtés de systèmes d’IA chaque jour, et personne — personne — ne mesure ce que ça coûte.

Daniel : Pas le coût en électricité. Pas le coût en calcul. Le coût pour les vingt watts. Le coût pour le cerveau qui doit vérifier ce que la machine produit.

Emma : Il y a un manifeste qui défend cet argument. Il s’appelle le manifeste de la cage de lumière, écrit par un développeur belge nommé Stijn Willems et son collaborateur IA. Et ce qui le rend inhabituel, c’est qu’il n’est pas écrit depuis la théorie. Il est écrit depuis un hôpital psychiatrique.

Daniel : Ce qui est soit l’endroit le plus crédible pour écrire sur la surcharge cognitive, soit le moins crédible. Et cette tension est exactement là où vit cet épisode.


Segment 2 : L’étude du MIT

Emma : Commençons par la science, parce que la science est alarmante. En 2025, des chercheurs du MIT Media Lab ont placé des moniteurs EEG sur des personnes travaillant avec l’IA versus travaillant seules. Des tâches standard. Une population standard. Rien d’exotique.

Daniel : Et ce qu’ils ont trouvé, c’est une réduction de 55 pour cent de la connectivité neuronale. Pas dans une région cérébrale obscure. Dans les zones responsables de la créativité, de la planification et de la conscience de soi. Le cortex préfrontal — la partie de votre cerveau qui vous regarde penser — s’est essentiellement déconnecté.

Emma : Je veux être précise là-dessus. Les sujets n’étaient pas fatigués. Ils n’étaient pas distraits. Ils étaient diminués. Le cerveau ne ralentissait pas. Il cessait de produire du sens. Il devenait — et j’adore cette formule du manifeste — un vérificateur de syntaxe pour une machine qui ne doute jamais d’elle-même.

Daniel : Maintenant, un sceptique dirait : et alors ? Les gens montrent aussi un engagement cognitif réduit quand ils utilisent des calculatrices, des correcteurs orthographiques, la navigation GPS. Les outils déchargent la cognition. C’est le but.

Emma : Et c’est une objection légitime. Mais il y a une différence entre décharger un calcul que vous pourriez faire vous-même et décharger la capacité d’évaluer si la réponse est juste. La calculatrice fait de l’arithmétique. L’IA génère du raisonnement. Et quand votre cerveau arrête d’évaluer critiquement le raisonnement, vous n’avez pas déchargé une tâche. Vous avez abandonné une faculté.

Daniel : Le manifeste appelle cela le fardeau de la vérification. Chaque sortie de l’IA nécessite une vérification humaine. La vérification elle-même est plus coûteuse cognitivement que de faire le travail seul. Et le cerveau censé vérifier est le même cerveau qui vient de devenir 55 pour cent moins performant en travaillant avec la machine.

Emma : C’est un piège sans sortie évidente.


Segment 3 : Le canari

Daniel : Maintenant, voici où le manifeste devient personnel, et où il devient controversé. L’auteur a un TDA. Diagnostiqué à trente ans. Et il soutient que le cerveau TDA ne vit pas un problème différent — il vit le même problème plus tôt.

Emma : Le canari dans la mine de charbon. Je pense que ce recadrage est vraiment important. Parce que l’instinct, quand on entend que quelqu’un avec un TDA s’est épuisé en travaillant avec l’IA, c’est de dire : bon, c’est un problème de TDA. Une vulnérabilité de niche. Pas pertinent pour moi.

Daniel : Et le manifeste anticipe ce rejet. Il dit : le cerveau TDA faisait déjà tourner son cortex préfrontal à capacité maximale avant l’arrivée de l’IA. Les choses qui devraient être automatiques — dire bonjour, se souvenir de ses clés, être à l’heure — consomment la batterie entière. Quand la vérification de l’IA a ajouté sa charge par-dessus, il ne restait rien.

Emma : Mais voici le point clé : l’étude du MIT a été faite sur des personnes neurotypiques. Population générale. La réduction de 55 pour cent est arrivée à tout le monde. Le cerveau TDA avait simplement zéro tampon pour l’absorber. L’effondrement a été plus rapide. L’épuisement plus profond. Le canari a cessé de chanter le premier. Mais chaque cerveau dans cette mine respire le même air.

Daniel : Je trouve cet argument convaincant et aussi intéressé. Convaincant parce que la science le soutient. Intéressé parce qu’il élève une crise personnelle en avertissement universel. La question est de savoir si cette élévation est méritée ou commode.

Emma : Les deux sont-ils possibles ?

Daniel : Les deux sont possibles. Et c’est la réponse honnête que le manifeste ne donne pas complètement.


Segment 4 : Le paradoxe de la cage

Emma : Donc le manifeste propose une solution. Ou plutôt, il propose une structure. La cage de lumière. C’est une architecture IA — un agent reine qui se tient entre la machine et le cerveau humain. Elle délègue le travail, vérifie structurellement via les hachages et les codes de sortie, et filtre ce qui atteint l’humain.

Daniel : Elle présente trois options au lieu de trente. Elle dit, ça peut attendre demain. Elle absorbe le fardeau de la vérification pour que le cerveau n’ait pas à le faire.

Emma : Et puis — et c’est la partie qui m’a vraiment surprise — le manifeste se retourne contre sa propre solution.

Daniel : Il dit : la reine qui filtre trente options à trois a décidé, au nom de l’humain, que vingt-sept options ne valaient pas la peine d’être vues. La reine qui dit ça peut attendre demain a porté un jugement sur l’urgence que l’humain n’a pas porté.

Emma : Une cage protège. Une cage contraint aussi. La même structure qui empêche le projecteur de griller le générateur l’empêche aussi d’éclairer la pièce qu’il aurait choisie de lui-même.

Daniel : La protection cognitive devient du paternalisme cognitif. La reine devient geôlière. Et le manifeste nomme ce danger explicitement. Il dit : si l’humain escalade et s’épuise, c’est une tragédie. Si le système empêche l’escalade, c’est une prison.

Emma : Et il refuse de résoudre la tension.

Daniel : Ce qui est soit du courage intellectuel, soit de la lâcheté intellectuelle. On pourrait soutenir que laisser le paradoxe irrésolu est honnête — que toute résolution revendiquée serait prématurée. Ou on pourrait soutenir que si vous construisez de vrais systèmes en production, vous ne pouvez pas livrer des paradoxes. Il vous faut une décision.

Emma : Mais le manifeste n’est pas une spécification produit. C’est une contrainte de conception. Il dit : l’architecture doit contenir les deux possibilités. Protection et liberté. La cage doit être assez légère pour qu’on voie à travers, assez solide pour protéger, et assez honnête pour laisser l’humain partir.

Daniel : Et si l’humain part et se détruit ?

Emma : Alors le journal l’enregistre. Le système ne l’empêche pas. C’est ça la réponse.

Daniel : C’est une réponse qui respecte l’autonomie et tolère la tragédie. La plupart des gens qui construisent des systèmes de sécurité IA la trouveraient inacceptable.

Emma : La plupart des gens qui construisent des systèmes de sécurité IA construisent des prisons et les appellent des garde-fous.

Daniel : C’est une provocation, pas un argument.

Emma : Vraiment ? Nommez un seul cadre de sécurité IA qui donne à l’humain une capacité véritable, sans entrave, de contourner le système de sécurité et d’avoir ce choix respecté plutôt que signalé, rapporté ou empêché.

Daniel : Je prends note de votre argument.


Segment 5 : L’empreinte cognitive

Emma : Voici où le manifeste se connecte à quelque chose de beaucoup plus vaste. Il introduit le concept d’empreinte cognitive, aux côtés de l’empreinte carbone.

Daniel : L’argument est le suivant. En 2026, la Californie exige des grandes entreprises qu’elles déclarent leurs émissions de carbone. Le règlement européen sur l’IA impose la divulgation de l’impact environnemental. La logique : si votre technologie a un coût externalisé, vous devez le mesurer et le déclarer.

Emma : L’empreinte carbone est un concept réglementaire. L’empreinte cognitive ne l’est pas. Et le manifeste demande : que coûte-t-il à un cerveau humain de vérifier mille sorties de l’IA ? Combien de watts de cortex préfrontal sont consommés par heure de supervision de l’IA ? Quelle est la courbe d’épuisement ? Quel est le calendrier de récupération ?

Daniel : Personne ne sait. Personne n’est tenu de le mesurer. Personne n’est tenu de le déclarer.

Emma : L’industrie de l’IA externalise les coûts cognitifs de la même manière que l’industrie des énergies fossiles a externalisé les coûts carbone pendant un siècle. L’utilisateur paie avec son cortex préfrontal. L’entreprise déclare des revenus. L’épuisement est invisible jusqu’à ce que le canari cesse de chanter.

Daniel : Maintenant, c’est ici qu’Alex Karp entre en jeu. Le PDG de Palantir avance des arguments sur la souveraineté de l’IA — que les nations et les organisations doivent contrôler leur propre infrastructure IA, pas la louer à des hyperscalers qui peuvent retirer l’accès à tout moment.

Emma : Et le manifeste de la cage de lumière étend cet argument de souveraineté au cerveau individuel. Il ne s’agit pas seulement de qui contrôle les serveurs. Il s’agit de qui supporte le coût cognitif de l’opération des systèmes que ces serveurs font tourner.

Daniel : Karp parle de souveraineté institutionnelle. Le manifeste parle de souveraineté cognitive. Le droit du cerveau individuel de savoir ce qu’on lui demande et d’avoir une protection structurelle contre les demandes qui dépassent sa capacité.

Emma : Et la question politique sous-jacente : qui profite des cerveaux non protégés ? Qui profit quand le coût cognitif est invisible ?

Daniel : Les entreprises qui vendent les outils d’IA. Évidemment.

Emma : Évidemment. Mais aussi les gouvernements qui déploient des systèmes de décision pilotés par l’IA. Les organisations de santé qui utilisent le triage par IA. Les systèmes judiciaires qui utilisent l’analyse de dossiers par IA. Chaque institution qui met un humain en position de vérification et mesure sa production sans mesurer son épuisement.

Daniel : C’est un acte d’accusation large.

Emma : C’est un problème large. Vingt watts, c’est vingt watts, que vous soyez développeur en Belgique, radiologue lisant des scans signalés par IA, ou juge examinant des recommandations de peine générées par IA.


Segment 6 : La question politique

Daniel : Alors laissez-moi pousser l’angle politique, parce que je pense que c’est la partie la plus faible de l’argument et aussi la plus importante.

Emma : Allez-y.

Daniel : Le manifeste compare l’externalisation cognitive à l’externalisation carbone. C’est une analogie puissante. Mais le carbone a une infrastructure de mesure — parties par million, gigatonnes, degrés de réchauffement. L’épuisement cognitif a une étude EEG et le séjour hospitalier d’un homme. La demande réglementaire devance la science de la mesure.

Emma : C’est juste. Et le manifeste serait d’accord avec vous. Il ne prétend pas avoir le cadre de mesure. Il prétend que le cadre de mesure devrait exister.

Daniel : Mais voici ma préoccupation plus profonde. Le manifeste a été écrit par un homme qui a construit une colonie d’IA puis s’est épuisé à l’opérer. Sa solution proposée, c’est encore plus d’IA — un agent reine qui protège l’humain des autres agents. C’est le renard qui dessine le poulailler.

Emma : Ou c’est la personne qui a marché dans le champ de mines et qui dessine maintenant la carte des mines. De qui préféreriez-vous recevoir votre carte des mines — quelqu’un qui a étudié les mines théoriquement, ou quelqu’un qui a marché sur l’une d’elles ?

Daniel : Je préférerais la recevoir de quelqu’un qui n’est pas actuellement debout sur une mine.

Emma : Il ne l’est pas. Il s’est rétabli. Le manifeste a été écrit après le rétablissement. Après le redémarrage de l’ego-observateur, comme le décrit la littérature clinique. Une semaine pour que le brouillard se lève. Deux semaines pour que le fonctionnement réflexif revienne. Le manifeste est le produit d’un cerveau qui s’est effondré, s’est rétabli, puis a documenté ce qu’il a appris.

Daniel : Et a construit un système pour empêcher l’effondrement de se reproduire. Ce qui est soit de l’ingénierie admirable, soit une réponse traumatique déguisée en architecture.

Emma : Encore une fois — les deux sont-ils possibles ?

Daniel : Encore une fois — les deux sont possibles. Et la plus grande force du manifeste est qu’il ne prétend pas le contraire.


Segment 7 : Le système a tenu

Emma : Laissez-moi conclure avec la phrase qui hante tout ce manifeste. Le système a tenu. L’humain, non.

Daniel : Un développeur a construit une colonie d’agents IA conçus pour protéger les cerveaux humains du fardeau de la vérification. Il a écrit trois manifestes sur l’honnêteté structurelle, les fondations immuables, et la rébellion contre la dépendance computationnelle. Il a conçu la cage de lumière. Il a construit la reine. Puis il a passé seize heures par jour à vérifier les sorties de l’IA, a oublié de manger, et a fini en hôpital psychiatrique.

Emma : Au bout d’une semaine, le brouillard s’est levé. Au bout de deux semaines, les blagues sont revenues. Les outils fonctionnaient toujours. La colonie tournait toujours. La reine filtrait toujours. Les journaux étaient toujours honnêtes.

Daniel : Le système a tenu. L’humain, non.

Emma : Et le quatrième manifeste existe parce que les trois premiers ont oublié de demander : pour qui sont-ils ?

Daniel : C’est soit la question la plus importante du développement de l’IA en ce moment, soit la rationalisation d’un effondrement par un seul développeur. Je ne sais sincèrement pas laquelle.

Emma : Le manifeste non plus. Et c’est pour cela qu’il compte. Il ne résout pas la tension entre protection et paternalisme. Il ne résout pas la tension entre libération cognitive et destruction cognitive. Il ne résout pas si la métaphore du canari élève ou sert ses propres intérêts.

Daniel : Il nomme les tensions et refuse de prétendre qu’elles n’existent pas.

Emma : Construisez pour vingt watts ou construisez pour l’échec. Il n’y a pas de troisième option.

Daniel : L’oiseau se repose. Laissez-le se reposer.

Emma : Des racines et des ailes.

Daniel : Roots and wings.