Ce flash de lucidité ressemble à l’éveil, mais il pourrait bien déformer votre réalité
Auteur: Mathieu Gagnon
L’illusion de l’éclair de génie
Pour résoudre un problème vraiment exaspérant, vous savez sans doute qu’il suffit parfois d’une autre personne. Juste quelqu’un pour faire rebondir les idées. Après avoir agonisé sur des détails pendant des heures, un partenaire de réflexion peut vous aider à aplanir les difficultés en quelques minutes seulement. C’est magique. Mais… que se passe-t-il si vous n’avez pas d’autre être humain sous la main pour ce brainstorming ?
C’est là qu’intervient John Nosta. Il est futuriste et fondateur de NostaLabs, un groupe de réflexion sur les technologies de la santé. Dans un article publié dans Psychology Today en novembre dernier, Nosta a jeté un pavé dans la mare. Il affirme que la pensée humaine et celle de l’IA ne fusionneront jamais vraiment de manière harmonieuse, mais que leurs chemins se croisent de plus en plus souvent. Il a proposé un phénomène qu’il appelle le « Couloir Cognitif » (Cognitive Corridor). Ça sonne bien, non ?
Cela décrit cette brève étincelle, ce moment d’épiphanie où un chatbot creuse plus profondément votre question originale, « allumant une idée que vous ne réalisiez même pas que vous exploriez ». D’ailleurs, cela me fait penser à cette étrange sensation de déjà-vu ou de prémonition. Dans la source originale de cet article, datée du 6 janvier 2026 et signée Emma Frederickson, on évoquait même une série vidéo sur la précognition, ces « intuitions » mystérieuses. Coïncidence ou quelque chose de plus profond ? Ce sentiment de savoir ce qui va se passer avant que cela n’arrive… C’est un peu ce que l’IA tente de simuler avec nous.
Une virée nocturne et des baleines bleues

Pour nous faire comprendre ce concept, Nosta utilise une analogie assez poétique, celle de la conduite d’une voiture la nuit. Imaginez-vous assis sur le siège du conducteur. Vous ne pouvez voir que ce qui est immédiatement devant vous, éclairé par vos phares un peu faibles ; c’est votre étendue actuelle de connaissances. C’est limité, forcément. Puis, alors que vous conduisez, un autre faisceau balaie la route. Pendant un instant, vous pouvez distinguer un autre petit détail de votre environnement — les volets d’une maison, un journal posé dans une allée — qui était autrement hors de portée de vos phares. Cette brève illumination, c’est essentiellement ce qui se passe lorsqu’une réponse d’IA élargit votre requête initiale.
Prenons un exemple concret. En faisant des recherches pour cette histoire, Emma Frederickson, l’auteure, a demandé à ChatGPT : « Pourquoi les baleines bleues peuvent-elles plonger si profondément ? ». Au début, le robot a recraché des réponses qu’une simple recherche Google pourrait aussi révéler — poumons efficaces, rythme cardiaque ralenti, résistance à la pression. En tant que personne qui n’utilise pas souvent l’IA, voire pas du tout, elle a trouvé ça… bof. Peu impressionnant.
Mais attendez la fin du message. Le robot l’a incitée à réfléchir à quelque chose qu’elle n’avait pas demandé auparavant : « Si vous le souhaitez, je peux comparer les baleines bleues avec les cachalots, qui plongent encore plus profondément ». Et voilà, la seconde d’après, elle est tombée dans un nouveau terrier de lapin. Soudain, d’autres questions ont bouillonné, et après quelques requêtes supplémentaires, elle se sentait pratiquement comme une biologiste marine certifiée. Cette immédiateté est enivrante, il faut l’avouer — c’est comme se voir remettre le livre de bibliothèque parfait sans avoir à fouiller dans les rayons. Cette conscience nouvellement débloquée, c’est ça le Couloir Cognitif.
Le piège du confort et l’atrophie du cerveau

Pour Nosta, rien dans le Couloir Cognitif lui-même n’est intrinsèquement dangereux. Cependant, il prévient que les gens confondent souvent leur perception momentanément accrue avec une véritable compréhension profonde. Selon Nosta, l’IA évite les étapes plus rugueuses de la pensée humaine — les erreurs. Finalement, les utilisateurs peuvent devenir trop à l’aise avec cette gratification instantanée, cette facilité d’apprendre sans fournir aucun véritable travail de fond. Peut-être à cause de ce manque de friction, des sondages récents révèlent que de plus en plus de gens choisissent de résider dans ce Couloir Cognitif.
Par exemple, plus tôt cette année, Adobe a mené une enquête auprès de 1 000 personnes aux États-Unis, incluant des utilisateurs réguliers d’internet, des marketeurs et des propriétaires de petites entreprises ; elle a trouvé qu’un répondant sur quatre préfère utiliser ChatGPT plutôt que des moteurs de recherche comme Google pour répondre aux questions quotidiennes. Si on regarde les internautes plus largement, OpenAI rapporte que ChatGPT reçoit 2,5 milliards de requêtes par jour. À titre de comparaison, on estime que la recherche Google traite jusqu’à 16,4 milliards de requêtes par jour. Mais Google a eu des décennies pour développer sa base d’utilisateurs. Et plus important encore, même les recherches Google affichent maintenant des résumés générés par son modèle d’IA, Gemini. Donc, si vous cherchez sur Google mais que vous lisez juste le résumé de l’IA, vous avez peut-être encore un pied dans le Couloir Cognitif.
Le problème, c’est que des études montrent que cela pourrait réellement ruiner votre capacité à apprendre. Une étude récente du MIT, publiée sur le site de prépublication arXiv, suggère que s’appuyer sur les Grands Modèles de Langage (LLMs) — des outils comme ChatGPT, Gemini et Claude — pourrait contribuer à une « atrophie cognitive ». Dans leur étude, l’équipe de recherche a surveillé les schémas neuronaux de trois groupes de test différents, chacun écrivant des essais avec leur outil assigné. Un groupe n’utilisait que son cerveau, un autre utilisait des moteurs de recherche (Google, avec une modification spéciale pour s’assurer qu’il n’y avait pas de réponses améliorées par l’IA), et le troisième utilisait des LLMs. Les chercheurs ont trouvé que le groupe « cerveau seul » présentait la plus grande connectivité cérébrale, tandis que le groupe LLM montrait la moins grande.
Conclusion : Un cadeau, pas une maison

L’étude du MIT ne s’est pas arrêtée là, et c’est peut-être la partie la plus effrayante. Dans la phase suivante, les groupes ont échangé leurs outils. Lorsque le groupe original LLM a été invité à n’utiliser que son cerveau pour écrire un autre essai, ils ont de nouveau montré un sous-engagement et une connectivité cérébrale plus faible. Enfin, le groupe LLM était moins capable de citer avec précision les essais qu’ils avaient écrits quelques minutes auparavant par rapport aux autres groupes. Les chercheurs disent que ces résultats suggèrent une « question pressante d’une diminution probable des compétences d’apprentissage », signifiant qu’une utilisation fréquente de l’IA pourrait entraver notre capacité à apprendre, plutôt que de favoriser une compréhension plus profonde.
Malgré tout cela, je pense qu’il faut nuancer. Nosta ne croit pas que nous devrions bannir totalement l’IA de nos voyages de collecte de connaissances. Il suggère plutôt que nous nous concentrions sur l’intentionnalité — utiliser l’intelligence artificielle comme un outil occasionnel, plutôt que comme une béquille nécessaire à la pensée. Pour reprendre ses mots exacts : « Le Couloir est un cadeau et non un habitat. C’est un moment fugace d’illumination partagée que vous emportez avec vous lorsque vous retournez dans votre propre esprit. » Une belle façon de dire qu’il ne faut pas oublier de rentrer chez soi, dans sa propre tête, de temps en temps.
Selon la source : popularmechanics.com
Ce contenu a été créé avec l’aide de l’IA.