Le cerveau humain fonctionne près du point critique, sans toutefois l’atteindre
Auteur: Mathieu Gagnon
Une frontière invisible entre ordre et chaos

Depuis de nombreuses années, la communauté neuroscientifique se passionne pour une idée fascinante : notre cerveau fonctionnerait près d’un point critique. Cette notion décrit une phase de transition très précise, située à la frontière exacte entre une dynamique parfaitement stable et un état totalement chaotique. La théorie suggère que cet équilibre précaire offre un environnement idéal pour optimiser la flexibilité de calcul, étendre la plage dynamique et accroître la sensibilité aux multiples signaux que nous recevons en permanence.
Les preuves soutenant cette hypothèse se sont accumulées au fil du temps. Les enregistrements de l’activité neuronale ont régulièrement mis en évidence des comportements obéissant à des lois de puissance, ainsi qu’une invariance d’échelle approximative. Concrètement, ces schémas semblaient se reproduire à l’identique, peu importe l’échelle spatiale ou temporelle observée. Ces découvertes ont même franchi les frontières de la biologie pour influencer l’intelligence artificielle, tout particulièrement le domaine du calcul par réservoir, où les réseaux fonctionnant au bord du chaos s’avèrent être les plus performants.
Une récente étude publiée dans la prestigieuse revue Physical Review Letters vient remettre en perspective une grande partie de ces certitudes. Ses auteurs révèlent que les signatures de criticité les plus couramment utilisées pour analyser les données cérébrales pourraient en réalité n’être que de simples artefacts statistiques. En proposant un cadre d’analyse beaucoup plus robuste appliqué à des données d’imagerie par résonance magnétique fonctionnelle (IRMf) du cerveau entier, les chercheurs confirment que notre organe pensant opère bien à proximité de ce point critique, mais sans jamais l’atteindre exactement.
Les pièges des données biologiques et les fausses signatures

La traque de cette fameuse criticité dans les données neuronales repose traditionnellement sur la recherche de modèles de mise à l’échelle en loi de puissance. L’objectif est de trouver une activité dont les statistiques restent similaires à travers de multiples échelles différentes. Les chercheurs s’appuient principalement sur deux méthodes : l’approche basée sur l’analyse en composantes principales (ACP), qui étudie le spectre des valeurs propres de la matrice de covariance de l’activité cérébrale, et l’analyse du groupe de renormalisation phénoménologique (PRG), chargée d’observer l’évolution des statistiques lorsque les neurones sont progressivement regroupés en grappes de plus en plus grandes.
Ces deux techniques comportent un angle mort important. Les signaux neuronaux sont souvent autocorrélés, c’est-à-dire qu’ils varient de manière lente et fluide au fil du temps au lieu de fluctuer de façon indépendante. Dans de telles conditions, ces signatures de mise à l’échelle peuvent apparaître dans des systèmes qui ne possèdent absolument aucune dynamique collective véritable. La situation s’aggrave lorsque l’on ajoute un échantillonnage limité, un cas de figure où le nombre de points temporels enregistrés est très faible par rapport au nombre de régions cérébrales analysées. L’IRMf est particulièrement vulnérable à ce phénomène, car son signal BOLD (dépendant du niveau d’oxygène dans le sang) est intrinsèquement lent et les sessions d’enregistrement restent courtes, créant un terrain idéal pour la prolifération de fausses signatures de criticité.
Rubén Calvo Ibáñez, doctorant à l’Université de Grenade et co-auteur de l’étude, explique son approche face à cette problématique complexe : « J’ai toujours été attiré par les questions fondamentales : comment un comportement compliqué émerge de règles simples. Ce qui m’a enthousiasmé dans les systèmes complexes et la physique hors équilibre, c’est que vous pouvez apporter ces outils à des données biologiques réelles et désordonnées, comme l’activité cérébrale, et tout de même poser des questions de principe. » L’enjeu majeur de la discipline est désormais de déterminer si ces signatures proviennent réellement d’une dynamique récurrente intrinsèque ou si elles sont simplement façonnées par des entrées externes et des limitations techniques.
Concevoir des modèles pour tester la réalité des réseaux
Afin de séparer les véritables signes de criticité des simples artefacts statistiques, l’équipe scientifique a conçu et développé deux modèles théoriques distincts. Chaque modèle a été élaboré pour isoler une pièce spécifique de ce casse-tête analytique. Le premier outil mis en place est un modèle linéaire récurrent de taux de décharge, un grand classique de la neuroscience computationnelle. Dans ce système, chaque région du cerveau influence les autres par le biais d’une rétroaction interconnectée.
Ce premier modèle s’appuie sur un paramètre clé, nommé g, qui contrôle la force de couplage globale. Ce curseur permet de faire passer le réseau d’une activité stable et rapidement amortie vers le bord de l’instabilité. L’intuition fondamentale des chercheurs a été de comprendre que le grainage temporel grossier équivaut mathématiquement à alimenter le réseau avec un bruit coloré autocorrélé. Cette découverte rend les signatures de mise à l’échelle extrêmement sensibles aux choix effectués lors du prétraitement des données.
Pour offrir un contre-exemple délibéré, les scientifiques ont mis au point un second système dans lequel le paramètre g est fixé à zéro. Cette configuration implique une absence totale d’interactions entre les différentes régions. « L’artefact principal que nous explorons est une combinaison de corrélations temporelles et de sous-échantillonnage. Pour tester cela, nous avons construit un modèle simple d’activité cérébrale sans aucune connectivité entre les régions. Dans un tel système déconnecté, il n’y a aucun mécanisme de dynamique collective, pourtant si les entrées que chaque région reçoit introduisent de longs temps d’autocorrélation, les exposants de mise à l’échelle apparents peuvent varier continuellement avec ce temps de corrélation » précise Rubén Calvo Ibáñez. Le simple fait de soumettre chaque région indépendante à un bruit lent, dans des conditions d’enregistrement limitées, a suffi pour produire des statistiques de covariance présentant de fausses queues en loi de puissance, impossibles à distinguer statistiquement de celles d’un réseau véritablement critique.
Une méthode en trois étapes pour dissiper les illusions

Pour trancher au milieu de ces signaux trompeurs, le cadre de travail mis au point par les chercheurs s’articule autour de trois outils pratiques rigoureux. La première étape consiste à utiliser une randomisation par décalage temporel. Ce procédé implique de mélanger la chronologie de chaque région cérébrale de manière totalement indépendante. Cette manipulation préserve les fluctuations lentes inhérentes aux données, tout en détruisant instantanément la moindre coordination authentique qui pourrait exister entre les régions.
La deuxième phase de cette méthodologie repose sur la mutualisation des données à travers l’ensemble des participants. En regroupant les informations, l’équipe augmente considérablement le nombre effectif de points temporels disponibles, ce qui réduit drastiquement l’erreur d’échantillonnage. Enfin, le troisième outil est l’appariement des exposants. Cette vérification permet de s’assurer que les signatures de mise à l’échelle de l’IRMf correspondent bien aux prédictions formulées par le modèle récurrent, plutôt qu’à la ligne de base générée par l’artefact. Pour éprouver ce dispositif, le cadre a été appliqué à l’ensemble de données LEMON, qui rassemble les IRMf à l’état de repos de 136 participants en bonne santé. Ces examens couvrent 183 régions cérébrales distinctes, avec des sessions d’enregistrement d’environ dix minutes par sujet.
Ce déploiement systématique répondait à un besoin urgent dans la littérature scientifique. Rubén Calvo Ibáñez résume ainsi leur démarche : « Ce qui a été examiné de manière beaucoup moins systématique, c’est si d’autres signatures de mise à l’échelle couramment utilisées peuvent également être produites par des mécanismes non critiques. Notre contribution est de fournir cette critique manquante et, surtout, un moyen pratique de distinguer la véritable dynamique collective des artefacts ».
Le verdict des données et les perspectives d’avenir

L’application du cadre d’analyse aux données regroupées de l’IRMf a livré un résultat sans appel. Des signatures de quasi-criticité authentiques sont bel et bien apparues au niveau de la population globale. Les calculs ont révélé une force de couplage effective d’environ 0,88, sachant que la valeur 1,0 marque précisément le point critique. Cette mesure démontre que lorsque l’activité cérébrale est analysée collectivement sur l’ensemble des participants, et non de manière individuelle, la dynamique de groupe se positionne très près du seuil critique, tout en restant à une distance de sécurité prudente.
La robustesse de ce résultat a été mise à l’épreuve par la randomisation par décalage temporel. Suite à cette manipulation, les signatures se sont presque entièrement effondrées. Cet effondrement confirme que les données d’origine reflétaient bien une dynamique collective véritable et non des artefacts statistiques. Les chercheurs ont constaté que les exposants de mise à l’échelle extraits s’alignaient étroitement avec les prédictions du modèle de taux de décharge récurrent. Ce comportement quasi-critique découle par conséquent de l’activité réverbérante du réseau neuronal plutôt que d’entrées structurées.
Cette position légèrement en retrait du bord du chaos s’avère être stratégique pour l’organisme. L’auteur de l’étude précise cette nuance fondamentale : « Fonctionner près d’un point critique peut conserver nombre des avantages informatiques proposés, tels que de riches modes collectifs multi-échelles et une amplification forte mais contrôlable, tout en évitant les inconvénients d’être assis exactement à la criticité, où de petites perturbations peuvent conduire à l’instabilité, à une activité incontrôlable ou à une robustesse réduite ».
L’équipe de recherche porte désormais son regard vers la suite de ces travaux. Elle ambitionne de construire de nouveaux modèles basés sur le connectome, afin de relier les signatures de criticité de façon directe à l’architecture structurelle du cerveau. Les scientifiques prévoient de tester la manière dont cette distance par rapport au point critique évolue avec l’âge, l’apparition de maladies ou les différents états cognitifs. Ils soulignent enfin que ce cadre d’analyse novateur possède une application vaste, bien au-delà des neurosciences, et pourra être déployé partout où des revendications de dynamiques quasi-critiques sont formulées.
Selon la source : phys.org