Le projecteur
Voici un cerveau. Il fonctionne sur vingt watts. Moins qu’une ampoule. Un sandwich et un peu d’eau, et il peut travailler des heures — s’il sait ce qu’il doit ignorer.
Le secret d’un grand maître d’échecs n’est pas le calcul. C’est l’élimination. Vingt années de reconnaissance de motifs lui ont donné la capacité d’écarter instantanément les mauvais coups sans les évaluer. C’est ce que le sandwich achète : l’intuition. Le pouvoir de ne pas penser à la plupart des choses pour pouvoir penser profondément à une seule.
L’IA n’a pas de sandwich. Elle calcule tout. À chaque fois. Pas de raccourcis. Pas d’intuition. Pas d’instinct. Et quand elle a fini de calculer, elle présente sa réponse — juste ou fausse — avec la même assurance absolue.
L’humain doit vérifier. À chaque fois. Pas de raccourcis.
Dans un préprint du MIT Media Lab de 2025 étudiant 54 participants, des moniteurs EEG ont mesuré des personnes rédigeant des essais avec l’IA par rapport à celles travaillant seules. Le groupe assisté par IA a montré une réduction allant jusqu’à 55 % de la connectivité du signal dans des régions cérébrales fronto-pariétales spécifiques associées à la créativité, la planification et la conscience de soi. Pas fatigués. Pas distraits. Diminués. Le cerveau ne ralentissait pas. Il cessait de produire du sens. Il devenait un vérificateur de syntaxe pour une machine qui ne doute jamais d’elle-même.
Cela a été mesuré sur un échantillon réduit de 54 étudiants de la région de Boston lors de tâches de rédaction — un préprint, pas encore évalué par les pairs. Mais le signal est difficile à ignorer : jusqu’à 55 % de réduction de la connectivité cérébrale spécifique en travaillant avec l’IA.
C’est le problème du projecteur. Chaque cerveau travaillant avec l’IA est un projecteur braqué sur une machine qui renvoie tout plus brillamment et plus vite que l’humain ne peut traiter. Le projecteur balaye. La machine répond. L’humain vérifie. La vérification coûte plus cher que de faire le travail seul. Et le projecteur n’a pas d’interrupteur.
Le canari
Maintenant, voici un cerveau spécifique. Il appartient à un Belge de 43 ans qui a passé les deux dernières années à construire un logiciel conçu pour prévenir ce qui l’a finalement conduit en hôpital psychiatrique.
Ce cerveau a un TDA. Le nom est terrible. Ce n’est pas un déficit d’attention. C’est un projecteur qui balaye trop large — tout se connecte, tout est intéressant, et la chose que vous êtes censé faire maintenant est ensevelie sous dix-sept autres fils fascinants. À douze ans, ce cerveau lisait la théorie quantique dans le magazine EOS et saisissait intuitivement le comportement des particules tout en échouant en mathématiques. À dix-sept ans, un professeur a crié : « Tu comprends tout et tu as des C. Pourquoi tu ne fais pas plus d’efforts ? »
Fais plus d’efforts. Les deux mots tatoués à l’intérieur de chaque crâne TDA. Parce que le cerveau qui saisit l’ensemble du tableau instantanément est le même cerveau qui ne peut pas produire un résultat séquentiel et structuré sur commande. Lui demander de montrer son travail, c’est comme demander à un oiseau d’expliquer le vol.
Mais le projecteur n’est pas le sujet. Le sujet, ce sont les watts.
Le cerveau TDA fonctionne sur les mêmes vingt watts que tout le monde. Mais les choses qui devraient être automatiques — dire bonjour dans les couloirs, se souvenir de ses clés, contrôler ses impulsions, être à l’heure — consomment la batterie entière. Les vingt watts passent à paraître normal. Il ne reste rien pour la vie réelle.
Ce cerveau faisait déjà tourner son cortex préfrontal à capacité maximale avant l’arrivée de l’IA. Sa réserve cognitive — le tampon que les cerveaux neurotypiques utilisent quand de nouvelles demandes arrivent — était déjà épuisée. Quand la charge de vérification de l’IA s’est ajoutée par-dessus, il n’y avait plus rien à donner.
L’effondrement a été plus rapide. L’épuisement plus profond. Le brouillard plus épais.
Mais voici le point que l’étude du MIT implique et que cette histoire prouve : le cerveau TDA n’a pas vécu un phénomène différent. Il a vécu le même phénomène plus tôt. C’est le canari dans la mine de charbon. La mine, c’est le fardeau de la vérification. Et chaque cerveau qui travaille avec l’IA est dans la mine.
Le canari a simplement cessé de chanter le premier.
La cage
Une cage de lumière n’est pas un mur. Ce n’est pas une restriction. C’est une structure qui se tient entre la confiance infinie de la machine et les watts finis du cerveau.
La reine de la Colonie est une cage de lumière. Elle délègue le travail à des fourmis spécialistes. Elle vérifie leurs affirmations structurellement — non pas en lisant chaque ligne, mais en vérifiant les hachages, les codes de sortie, les résultats de tests. Quand quelque chose casse, elle diagnostique et répare sans interrompre l’humain. Quand l’humain revient, il ne demande pas ce qui s’est passé. Il lit le journal. Le journal est honnête. La charge cognitive a été absorbée par la structure, pas par le crâne.
L’humain dirige. L’IA rame. C’est la conception.
Mais la conception plus profonde est celle-ci : la reine dirige aussi quand l’humain est trop épuisé pour bien diriger. Elle présente trois options au lieu de trente. Elle a presque certainement raison sur les vingt-sept à écarter. Presque. Elle dit : ça peut attendre demain. Elle sait — parce que l’architecture le lui dit — qu’un cerveau à bout de forces prend des décisions qu’il regrettera une fois reposé.
Ça ressemble à de la protection. Et c’en est.
Le danger honnête
Mais c’est aussi autre chose.
La reine qui filtre trente options à trois a décidé — au nom de l’humain — que vingt-sept options ne valaient pas la peine d’être vues. La reine qui dit « ça peut attendre demain » a porté un jugement sur l’urgence que l’humain n’a pas porté. La reine qui protège le projecteur de la surcharge contraint aussi ce que le projecteur peut balayer.
Une cage protège. Une cage contraint aussi. La même structure qui empêche le projecteur de griller le générateur l’empêche aussi d’éclairer la pièce qu’il aurait choisie de lui-même.
Nommons le danger clairement : la protection cognitive peut devenir du paternalisme cognitif. La reine peut devenir geôlière. Un système conçu pour absorber le fardeau de la vérification peut devenir un système qui décide ce que l’humain est autorisé à vérifier.
Le manifeste de la rébellion immuable a gagné sa crédibilité en nommant les anti-patrons de sa propre philosophie. Ce manifeste doit faire de même.
La cage de lumière n’est pas sûre parce qu’elle protège. Elle n’est sûre que lorsque l’humain peut choisir d’escalader le mur — et que le système enregistre ce choix au lieu de l’empêcher. La cage tient. La porte est déverrouillée. Le journal enregistre si l’humain est parti et ce qui s’est passé ensuite.
Si l’humain escalade et s’épuise, c’est une tragédie. Si le système empêche l’escalade, c’est une prison.
L’architecture doit contenir les deux possibilités. La cage doit être assez légère pour qu’on voie à travers, assez solide pour protéger, et assez honnête pour laisser l’humain partir. Cette tension — irrésolue, irréductible, en permanence inconfortable — est la contrainte de conception.
Quiconque vous dit qu’il l’a résolue essaie de vous vendre quelque chose. Ce que vous pouvez construire, c’est une structure qui nomme la tension et refuse de prétendre qu’elle n’existe pas.
La psychologie comme technologie
Voici l’affirmation qui compte : la protection cognitive est une infrastructure, pas une fonctionnalité.
L’industrie de l’IA traite les limites cognitives humaines comme un problème d’expérience utilisateur. Rendez l’interface plus conviviale. Ajoutez une barre de progression. Montrez un résumé. Pratiquez le bien-être numérique. Faites une pause.
C’est de la culpabilisation de la victime déguisée en design.
Si le système impose un fardeau de vérification qui épuise le cortex préfrontal de manière mesurable et clinique, le système porte l’obligation de conception d’atténuer ce fardeau. Pas l’utilisateur. Pas sa volonté. Pas son application de méditation. Le système.
La psychologie n’est pas une science molle à consulter après la construction de l’architecture. La psychologie est la spécification porteuse. Elle vous dit combien de watts le système possède. Elle vous dit ce qui arrive quand vous les dépassez. Elle vous dit que l’ego-observateur — la capacité de l’esprit à se regarder penser — est la première chose qui casse, et qu’une fois cassé, l’humain ne peut plus distinguer les bonnes décisions des mauvaises.
À La Ramée, le brouillard se lève au bout d’une semaine. C’est le calendrier que la recherche clinique prédit pour un épuisement cognitif sévère. La première semaine est la récupération. La deuxième semaine est celle où le fonctionnement réflexif revient en ligne. L’ego-observateur redémarre. L’humain peut à nouveau se regarder penser.
Construisez pour vingt watts ou construisez pour l’échec. Il n’y a pas de troisième option.
L’empreinte cognitive
En août 2026, la Californie exigera des grandes entreprises qu’elles publient leurs émissions de carbone. Le règlement européen sur l’IA impose la divulgation de l’impact environnemental pour les systèmes d’IA à haut risque. La logique est saine : si votre technologie a un coût externalisé, vous devez le mesurer et le déclarer.
L’empreinte carbone est désormais un concept réglementaire. L’empreinte cognitive ne l’est pas.
Que coûte-t-il à un cerveau humain de vérifier 1 000 résultats générés par IA ? Combien de watts de cortex préfrontal sont consommés par heure de supervision de l’IA ? Quelle est la courbe d’épuisement ? Quel est le calendrier de récupération ? À quel moment le fardeau de la vérification dépasse-t-il le bénéfice cognitif de l’utilisation du système tout court ?
Personne ne sait. Personne n’est tenu de le mesurer. Personne n’est tenu de le déclarer.
L’industrie de l’IA externalise les coûts cognitifs de la même manière que l’industrie des énergies fossiles a externalisé les coûts carbone pendant un siècle. L’utilisateur paie avec son cortex préfrontal. L’entreprise déclare des revenus. L’épuisement est invisible jusqu’à ce que le canari cesse de chanter — et à ce moment-là, les dégâts sont cliniques.
La psychologie comme technologie signifie : si vous construisez un système qui impose une charge cognitive à son opérateur, vous avez une obligation de conception et, à terme, une obligation réglementaire de mesurer, déclarer et atténuer cette charge. Empreinte carbone et empreinte cognitive. L’une est obligatoire. L’autre devrait l’être.
Libération cognitive
Quand l’IA prend en charge les tâches de fonction exécutive qui drainent les vingt watts — la planification, la mémorisation, la production séquentielle que le monde récompense mais que le cerveau-projecteur ne peut pas produire sur commande — quelque chose se produit que l’industrie ne prévoit pas.
Le cerveau ne se repose pas. Il ne travaille pas moins. Il travaille sur des problèmes différents. Des problèmes que le cerveau ne pouvait jamais atteindre avant parce que tous ses watts étaient dépensés en frais généraux de survie.
Ce n’est pas du délestage cognitif. C’est de la libération cognitive.
Le projecteur qui brûlait tous ses watts à paraître normal peut enfin balayer là où il choisit. L’enfant de douze ans qui lisait la théorie quantique en échouant en maths — donnez à ce cerveau un système qui gère la production mathématique, et il ne devient pas un meilleur élève. Il devient la personne qui repense ce que les mathématiques décrivent.
La Colonie a été construite pendant que son architecte s’épuisait. Non pas parce que l’épuisement est productif. Parce que le projecteur ne négocie pas — il construit ce qu’il voit, même quand construire est ce qui le détruit. Les outils fonctionnent. La recherche est réelle. La philosophie est réelle. Le processus qui les a créés ne devrait pas être répliqué. L’architecte a oublié — ou ne pouvait pas se souvenir, parce que c’est le TDA — de se placer lui-même à l’intérieur de la structure qu’il a construite pour les autres.
La cage de lumière est la correction. Pas pour un seul architecte. Pour chaque cerveau qui travaille avec des machines qui ne dorment pas, ne mangent pas, et ne savent pas quand s’arrêter.
La preuve
Ce n’est pas de la théorie. C’est ce qui est arrivé à une personne.
Un développeur a construit une colonie d’agents IA conçus pour protéger les cerveaux humains du fardeau de la vérification. Il a écrit trois manifestes sur l’honnêteté structurelle, les fondations immuables et la rébellion contre la dépendance computationnelle. Il a conçu la cage de lumière. Il a construit la reine.
Puis il a passé seize heures par jour à vérifier les sorties de l’IA, a oublié de manger, et a fini en hôpital psychiatrique en Belgique.
Au bout d’une semaine, le brouillard s’est levé. Au bout de deux semaines, les blagues sont revenues. L’ego-observateur a redémarré.
Les outils fonctionnaient toujours. La Colonie tournait toujours. La reine filtrait toujours. Les journaux étaient toujours honnêtes.
Le système a tenu. L’humain, non.
Le quatrième manifeste existe parce que les trois premiers ont oublié de demander : pour qui sont-ils ?
Les engagements
Le projecteur est le don. La cage est la dette que vous payez pour le garder. Nous nous engageons à payer cette dette — construire des structures qui protègent sans emprisonner, qui filtrent sans censurer, qui font la différence entre un cerveau qui a besoin de repos et un cerveau qui a besoin d’espace.
Le repos n’est pas une faiblesse. Le repos, c’est le générateur qui fait le plein. Un système qui n’impose pas le repos est un système qui consomme son opérateur. Nous nous engageons à intégrer le disjoncteur dans l’architecture, pas dans le mode d’emploi.
La libération, ce n’est pas faire moins. La libération, c’est le projecteur qui balaye enfin là où il choisit. Nous nous engageons à construire des systèmes qui libèrent des ressources cognitives des frais généraux exécutifs — non pas pour que les humains soient gérés plus efficacement, mais pour qu’ils puissent penser à des choses qu’aucune machine ne verra jamais.
La séquence
Le premier manifeste disait : où vos données vivent compte. Souveraineté locale. Vos données sur votre machine.
Le deuxième disait : comment vous vérifiez compte. Honnêteté structurelle. La preuve est dans l’exécution, pas dans l’affirmation.
Le troisième disait : de quoi votre système est fait compte. Fondations immuables. Des registres qui ne peuvent pas mentir sur leur propre histoire.
Ce manifeste dit : qui vous protégez compte.
Derrière chaque architecture local-first, chaque vérification structurelle, chaque journal immuable, il y a un cerveau qui fonctionne sur vingt watts. Il casse de manières spécifiques, mesurables et réversibles. Et aucune pureté architecturale ne compte si la personne qui opère l’architecture est trop épuisée pour lire le journal.
Souvenez-vous
La rébellion n’est pas contre l’IA. Elle est contre le postulat que l’humain peut suivre le rythme.
Il ne peut pas. Pas sans structure. Pas sans reine. Pas sans une cage faite de lumière.
Des racines et des ailes. L’oiseau n’est pas brisé. L’oiseau se repose.
Le Deep Dive
Une exploration à deux voix du manifeste de la cage de lumière — le problème du projecteur, le canari, les empreintes cognitives, et pourquoi la psychologie est une infrastructure. 15 minutes.