Vers un cerveau théorique

Vers un cerveau théorique
24 – 30 avril 1995
par Gérard Toulouse

Participants

William Bialek (NEC Research Institute, Princeton, USA), Klaus Hepp (Institut fur Theoretische Physik, Zurich, Suisse), Jean-Michel Morel (Centre de recherches en mathématiques de la décision (CEREMADE), université de Paris-IX-Dauphine, France), David Mumford (Harvard University, USA), Jean-Pierre Nadal (Ecole normale supérieure (ENS), Paris, France), Nestor Parga (Universidad Autonoma de Madrid, Espagne), David Ruelle, organisateur (Institut des hautes études scientifiques (IHES), Bures-sur Yvette, France), Tim Shallice (University College London, UK), Haim Sompolinsky (Hebrew University, Jerusalem, Israel), Bernard Teissier (ENS, Paris, France), Simon Thorpe (Centre national de recherche scientifique (CNRS), Toulouse, France), Gérard Toulouse, organisateur (ENS, Paris, France), Miguel Virasoro (Centre international de physique théorique, Trieste, et université de Rome, Italie)

Compte rendu

Le projet de cette rencontre était de procéder à un tour d’horizon sur l’état actuel des théories du cerveau, en réunissant une douzaine d’experts d’origines très diverses et de compétences complémentaires (mathématiciens, physiciens, psychologues, neurobiologistes). Avec en tête une série de questions : le moment est-il venu de constater l’existence d’un nouveau champ disciplinaire et d’en tirer des conséquences institutionnelles pour l’enseignement et la recherche ? Plus précisément : les cerveaux, animaux ou humains, étant des objets très complexes, dispose-t-on maintenant d’un ensemble suffisant de questions bien posées et modèles abstraits, constitutifs d’une activité théorique originale ? Ou encore : existe-t-il déjà une communauté de chercheurs, expérimentateurs et théoriciens, capables de se comprendre entre eux et de dialoguer avec profit autour de tels thèmes ?

Ces questions méritent des réponses parfois nuancées. Mais le succès exceptionnel de la rencontre, l’ampleur et l’intensité des discussions ont prouvé sans équivoque que le sujet abordé était bien d’actualité. Les participants sont convenus que Les Treilles fournissaient un lieu d’accueil et un format de travail bien appropriés pour suivre les développements à venir dans cette science en gestation.

Les discussions ont porté sur divers aspects des systèmes nerveux, situés à presque tous les niveaux d’échelle : les éléments de base (neurone formel, dynamique neuronale), l’architecture des réseaux (structures en couches successives, boucles de rétroaction, intégration sensori-motrice, etc.), les représentations mentales (attracteurs structurés, synchronie des impulsions, etc.), les modes d’activité spontanée des cerveaux (oscillations, rôle du bruit, chaos, etc.), les mécanismes de traitement des signaux et d’apprentissage (mémoire, généralisation, etc.), les fonctions supérieures (pensée, langage, conscience…).

Exposé de William Bialek – Quels problèmes les cerveaux peuvent-ils résoudre ?

L’étude des cerveaux d’animaux dits inférieurs, insectes par exemple, est bien plus instructive qu’on pourrait s’y attendre. D’abord à cause des propriétés remarquables de leurs systèmes sensoriels, atteignant parfois les bornes absolues imposées par la physique. Mais aussi parce qu’il existe une réelle continuité entre les propriétés dites “bas-niveau” et les fonctions qualifiées de supérieures (apprentissage, cognition) à cause, d’une part, de la nécessité d’adaptation rapide, en permanence, des systèmes sensori-moteurs, et, d’autre part, du besoin vital de parvenir à une amélioration du rapport signal sur bruit grâce à des attentes perceptuelles (impliquant la formation d’un modèle interne du monde extérieur). Chez tous les animaux, une fonction primordiale du cerveau est d’engendrer un comportement adéquat en temps réel ; cette contrainte temporelle (chez la mouche comme chez l’homme) suggère qu’en situation usuelle les cerveaux n’ont pas le temps de faire une moyenne sur les potentiels d’action, contrairement aux conceptions standard sur le codage neuronal. Ces considérations mènent ainsi à prédire que l’activité neuronale des cerveaux, opérant dans des conditions naturelles, est bien plus déterministe et moins stochastique que dans la plupart des expériences de laboratoire.

Exposé de David Mumford – Modélisation mathématique du fonctionnement cortical et de la pensée

Une analyse critique des hypothèses couramment admises sur le codage neuronal et sur la nature des représentations mentales conclut à leur insuffisance et conduit à suggérer que la structure temporelle fine de l’activité neuronale (potentiels d’action) est porteuse d’information ; en outre, cette analyse suggère que les effets de synchronie jouent un rôle essentiel dans la structure dynamique des représentations mentales. De tels concepts permettent de proposer une solution au problème de liage (liaison entre attributs d’un même objet et segmentation perceptuelle entre objets distincts) et d’interpréter certains résultats expérimentaux récents obtenus sur l’aire sensorielle V1 du cortex visuel où de nombreuses cellules semblent porteuses de signaux multiplexés, intervenant à des temps successifs après l’imposition d’un stimulus. L’aire V1 apparaît alors comme un tableau où sont inscrites des informations provenant non seulement des capteurs sensoriels (traitement de bas en haut), mais aussi des aires supérieures (rétroaction du haut vers le bas).

Exposé de Haim Sompolinsky – Modes d’activité spatio-temporelle et traitement des signaux sensoriels dans le cortex

A la conception classique d’un traitement des signaux procédant de couche en couche (de bas en haut) sans rétroaction est opposée une conception où les entrées sensorielles sélectionnent, parmi un répertoire d’états intrinsèques du cerveau, ceux qui correspondent le mieux aux attributs du stimulus. Le signal extérieur agit alors comme une petite perturbation sur un cerveau, dont la dynamique est dominée par ses couplages internes. Une telle conception amène à étudier le spectre des états propres, ou “vides”, du cerveau.

Un modèle, proposé pour décrire la détection des orientations de ligne dans le cortex visuel, fait ainsi apparaître l’existence d’un continuum d’attracteurs, obtenus par brisure spontanée de symétrie, en l’absence d’entrées sensorielles. Ces attracteurs sont caractérisés par une activité stationnaire ou oscillante. L’existence de lignes d’attracteurs pourrait fournir une solution au problème de la perception invariante : représentation mentale des objets dont l’aspect extérieur varie selon leur position dans l’espace.

Exposé de Simon Thorpe – Contraintes temporelles sur le traitement visuel

Des expériences de psychologie expérimentale (mesures de temps de réaction et enregistrements électro-encéphalographiques) montrent qu’un être humain est capable de reconnaître une image visuelle en moins de 150 ms. Vu les données anatomiques sur le système visuel des primates (une dizaine de synapses sont à traverser entre les photorécepteurs de la rétine et le cortex inférotemporal), ces résultats suggèrent que le traitement visuel doit utiliser très peu de potentiels d’action par neurone (ce qui rejoint les thèses présentées auparavant par William Bialek) et doit se faire suivant un mode de propagation directif — “vers l’avant”, comme on dit – les temps étant trop courts pour que des effets de-rétroaction puissent entrer en jeu (ces considérations s’inscrivent alors en contrepoint des idées avancées par David Mumford et Haim Sompolinsky). Ainsi, dans un tel mode de perception rapide tout au moins le codage neuronal serait essentiellement contenu dans les temps d’arrivée différentiels des impulsions, se propageant en volées de couche en couche.

Exposé de Jean-Pierre Nadal – Critères pour le codage sensoriel

La modélisation mathématique du prétraitement sensoriel (correspondant aux premières étapes de traitement, dans les couches de neurones situées derrière les capteurs) a fait de grands progrès récemment. Des critères quantitatifs ont pu être définis, permettant de caractériser la performance du système sensoriel en considération, à partir desquels on peut prédire l’organisation optimale des réseaux neuronaux (forme des champs récepteurs neuronaux déterminés par les connexions afférentes d’un neurone donné, fonctions de transfert entrée-sortie des cellules nerveuses) et procéder ensuite à une confrontation détaillée avec les données expérimentales. Un dialogue fructueux entre théorie et expérience a pu ainsi s’instaurer à partir de notions classiques en traitement du signal (information mutuelle, rapport signal sur bruit, analyse en composantes principales) et d’un ensemble d’idées méditées par Horace Barlow depuis plus de trente ans (réduction de redondance, code factoriel).

Exposé de Jean-Michel Morel – Objets de base du traitement d’images

Une convergence est apparue récemment entre les études de vision artificielle (à la recherche d’algorithmes de traitement d’images) et des travaux en psychologie de la perception (issus de l’école gestaltiste). Les trois approches mathématiques concurrentes (théories linéaire, variationnelle, morphologique) peuvent être comparées en utilisant les analyses de Gaetano Kanizsa définissant les principales singularités perceptuelles (points de jonction entre lignes de bord). L’étude des phénomènes d’occlusion (jonctions en T) et de transparence (jonctions en X, dues notamment aux ombrages) conduit à donner la préférence à la théorie morphologique – où l’image est analysée par décomposition selon les lignes de niveau de l’intensité lumineuse (niveaux de gris).

Exposé de Klaus Hepp – Perception active et intégration sensori-motrice

En neurophysiologie comme en robotique, le modèle standard perception-décision-action (où les traitements perceptuels sont séparés des contrôles moteurs par une mince couche centrale contenant les circuits de décision) est désormais remplacé par une conception beaucoup plus intégrée. Cela est bien illustré par l’étude approfondie du système visuo-vestibulo-oculo-moteur chez le singe. L’analyse, où entre en jeu le caractère non commutatif du groupe des rotations à trois dimensions, a permis de formuler des hypothèses précises sur les représentations de l’espace et des mouvements oculaires (saccade, poursuite) dans les aires nerveuses impliquées (colliculus supérieur notamment). Tout récemment, des hypothèses rivales, aux conséquences nettement discernables grâce à des expériences subtiles, ont ainsi pu être testées. Il est amusant de noter que ces travaux viennent, un siècle après, confirmer la pertinence de certaines intuitions incisives de Helmholtz.

Exposé de Tim Shallice – Implications des observations neuropsychologiques pour la compréhension du système cognitif normal

Les patients ayant des lésions cérébrales localisées présentent des déficits cognitifs parfois hautement spécifiques. Peut-on tirer de ces désordres des informations utiles sur l’organisation du système cognitif normal ? La neuropsychologie cognitive s’est développée au cours des vingt-cinq dernières années afin de tenter de répondre à cette question. Un lien entre syndromes cliniques observés et modèles de réseaux de neurones formels (par exemple, en supprimant des connexions ou des neurones pris au milieu du réseau) produisent divers symptômes, dont la co-occurrence peut être comparée aux syndromes observés en neuropsychologie. Cela a pu être illustré notamment pour la dyslexie profonde et l’aphasie optique. Cependant, ces interprétations en sont encore à un stade primitif : elles restent trop générales pour rendre compte du cas d’un patient particulier et elles reposent sur des hypothèses neurobiologiques plausibles plutôt que sur des données anatomiques bien définies.

Expose de Miguel Virasoro – Le chemin de haut en bas vers un cerveau théorique

Les deux chemins vers une théorie du cerveau, de bas en haut et de haut en bas, ne convergent pas encore, mais ils ne divergent pas non plus.

Dans les approches de bas en haut, le concept clé est le traitement optimal des signaux, qu’il s’agisse de maximiser un rapport signal sur bruit ou de minimiser un temps de réaction (William Bialek, Simon Thorpe, Jean-Pierre Nadal, Klaus Hepp).

L’aspect surprenant est qu’il semble n’y avoir quasiment pas de limite supérieure aux capacités de traitement d’un neurone (David Mumford, Klaus Hepp, William Bialek). Inversement, dans les approches de haut en bas, la notion d’optimalité peut être un guide trompeur. Les fonctions cognitives supérieures sont apparues récemment dans une seule branche de l’arbre de l’évolution. La croissance du volume du cerveau a été très rapide. L’aspect surprenant ici est qu’il semble n’y avoir pas de limite supérieure à la structure que les neuropsychologues sont amenés à supposer pour rendre compte de leurs observations — d’où la crise de la “boxologie” (représentations systémiques du fonctionnement cérébral à base de boîtes connectées par des flèches).

Un modèle élémentaire de mémoire sémantique est présenté, à partir d’un réseau fait de modules fonctionnels couplés. Cette architecture simple permet de retrouver certaines propriétés de catégorisation souhaitées, mais il apparaît des effets parasites d’interférence entre contenus de mémoire. Ces difficultés suggèrent qu’il est nécessaire d’ajouter au modèle un mécanisme de modulation sélective, peut-être sous contrôle conscient.

Autres exposés et débats

David Ruelle a introduit et présidé un débat sur Freud et la psychanalyse. Sur ce sujet, dont l’histoire est trop frottée de religiosité pour ne pas susciter un certain agacement chez les scientifiques, la discussion a permis de cerner divers thèmes qui semblent bien mériter l’attention et la mise en œuvre des méthodes de réflexion critique propres à la science.

Traversant divers domaines de la physique, la notion de résonance stochastique (présentée par David Ruelle) offre des perspectives prometteuses en neurophysiologie. Cependant, William Bialek fit valoir que la pertinence fonctionnelle de ce type de résonance est sujette à caution, son efficacité biologique pour améliorer la détection d’un signal oscillant restant à démontrer.

David Ruelle a présenté un large examen du chaos dans les systèmes nerveux. Pour des raisons techniques, il est difficile de trouver des analyses convaincantes de systèmes biologiques chaotiques. Cependant, il existe des perspectives plus favorables dans l’analyse de systèmes simplifiés (signaux EEG dans certains régimes cérébraux pathologiques, coupes tissulaires in vitro).

Une session vespérale sur la conscience, présidée par Klaus Hepp, a permis d’abord d’écarter le modèle dualiste d’Eccles (selon lequel l’esprit interagirait avec le cerveau par modulation de la probabilité d’exocytose dans les synapses corticales). Sur le dualisme platonicien des mathématiciens, pas de commentaire neuf. Quant à la conscience humaine (conscience visuelle, conscience de soi, etc.), une approche modeste est proposée : poursuivre patiemment la conception et l’étude de réseaux de neurones formels, visant à modéliser peu à peu certaines capacités récursives et réflexives des cerveaux des mammifères supérieurs.

Enfin une session de clôture, “bilan et perspectives”, a permis notamment de souligner que :

1) Dix ans plus tôt, nul ne se serait hasardé à prédire que des modèles élémentaires de réseaux de neurones formels, dans des architectures très simplifiées, permettraient de rendre compte, fut-ce qualitativement, d’un aussi grand nombre de propriétés des systèmes nerveux (mémoire, catégorisation, apprentissage d’une règle par l’exemple, généralisation, prétraitement sensoriel, etc.), même s’il s’agit là souvent de modèles métaphoriques plutôt que d’une théorisation astreinte à rendre compte de la réalité des cerveaux biologiques.

2) Si, par définition, il est difficile de prévoir par où passeront les percées théoriques à venir, il est clair qu’il se produira, au cours de la prochaine décennie, une telle explosion de données expérimentales (en particulier, enregistrements multi-électrodes sur les animaux, imagerie cérébrale du cerveau humain) qu’elle imposera le recours à une réflexion théorique, qu’on le veuille ou non.

3) La modélisation numérique “totale” de systèmes nerveux simples (par exemple, cerveau d’un nématode, système locomoteur de la lamproie…) est devenue une perspective réaliste grâce aux ressources de calcul des ordinateurs modernes ; ces approches “en force” ne sont pas pour autant à dédaigner, car elles peuvent permettre une estimation, par essai et erreur, du degré de sophistication utile dans la description des éléments de base : neurones et synapses.

4) Les questions fondamentales (concernant la nature du codage neuronal, l’information portée par une impulsion individuelle, les effets de synchronie, le rôle de la composante stochastique dans l’activité cérébrale) sont encore largement ouvertes ; ce constat peut paraître décevant, mais il aura une contrepartie séduisante pour les amateurs hardis : malgré les progrès déjà accomplis, ce domaine reste un champ d’aventures.

Communications présentées :

William Bialek – What problems can brains really solve?

Klaus Hepp – Active perception and sensorimotor integration

Jean-Michel Morel – Image processing: basic objects?

David Mumford – Templates, pointers and statistical models for perception

Jean Pierre Nadal – Criteria for optimal coding

Nestor Parga – From noise reduction to decorrelation

David Ruelle

– Freud and Psychoanalysis

– Chaos in the nervous System

Tim Shallice – Modelling and neuropsychologic phenomena

Haim Sompolinsky – Spatio temporal patterns and sensory processing in the cortex

Simon Thorpe – Temporal constraints on information processing in the brain

Miguel Virasoro – On semantic memory

Ce contenu a été publié dans Archives mises en ligne. Vous pouvez le mettre en favoris avec ce permalien.