DS10 - Défi de tous les savoirs

Importance fonctionnelle du noyau cortical dans l’architecture de contre-courant à haute densité – ARCHI-CORE

Architectures cognitives et intégration multisensorielle: Exploration des dynamiques et circuits à l'origine de la reconnaissance voix visage et de son intégration

La communication chez les primates dépend en grande partie des interactions sociales impliquant la vocalisations et la reconnaissance des expressions faciales. Cela pose un problème aigu en termes d'intégration multisensorielle. Ici, nous combinons les expériences invasives chez le primate non humain (PNH) avec l'imagerie du cerveau entier chez l'homme pour déterminer les dynamiques et les contraintes structurelles sur la reconnaissance voix visage

Circuits multimodaux et dynamiques chez l'homme et le PNH

Nous partons de hypothèse qu’un noyau cortical joue un role important dans l’architecture cognitive notamment en étant responsable du traitement conscient des informations mais aussi de certains aspects de l’intégration multi-sensorielle. Nous avons observé que les vocalisations et la perception visuelle du visage montrent des interactions extrêmement fortes chez l’Homme et chez le primate non-humain. Nous réalisons des investigations en parallèle chez ces deux espèces, utilisant l’anatomie quantitative et l’électrophysiologie afin de déterminer les caractéristiques homologues de leur architecture cognitive. Nous utilisons l’IRMf pour déterminer les processus neuronaux sous-tendant l’intégration visage-voix dans un cadre “Predictive coding”, un modèle Bayesien des fonctions corticales, selon lequel notre cerveau déduit une representation interne du monde extérieur à partir d’informations sensorielles. A son tour, cette representation interne permet de générer des attentes vis-à-vis de ces informations sensorielles. On peut donc dire que les signaux prédictifs reflètent des processus top-down, alors que les signaux prédiction-erreur reflètent un processus bottom-up.<br />Chez l’humain et le PNH, nous avons pu observé qu’une suppression sensorielle sur le long terme peut affecter le gain multi-sensoriel. L ‘hypothèse sous-jacente est que quand nous sommes engagés dans un processus de modalité simple, cela peut exclure ou réduire nos mécanismes attentionnels dans d’autres modalités. De plus, chez les patients sourds, notre travail précédent a montré que les aires temporales qui traitent spécifiquement la voix humaine sont sujettes à une réorganisation cross-modale et sont impliquées dans le traitement de l’information vocale visuelle. Notre hypothèse est qu’en dépit d’une récupération fonctionnelle grâce à l’implant cochléaire, les patients sourds implantés présenteront un fort biais visuel à l’égard des visages quand ils sont engagés dans une tâche de reconnaissance vocale

L’homologie entre le noyau cortical de l’Homme et du PNH requiert une approche multidisciplinaire chez les deux espèces. Nous complétons les études menées chez l’Homme par des techniques invasives réalisées sur le PNH et déterminons ainsi l’organisation hiérarchique des processus impliqués entre les espèces. Chez le PNH, nous menons des investigations anatomiques quantitatives grâce à des techniques d’hodologie qui nous permettent de construire des modèles structurels à grande échelle du cortex. En parallèle, nous réalisons chez l’Homme et le PNH des études de tractographie au moyen d’IRM de diffusion. Corréler ces 2 approches chez le PNH, nous permet d’en savoir davantage sur nos modèles à grande échelle d’architecture du cerveau humain. Chez le PNH, nous implantons des électrodes sous-durales sur de larges surfaces de cortex pour enregistrer des rythmes inter-aires des bandes theta, beta et gamma. Chez l’humain, grâce à l’IRMf, nous étudions des tâches de reconnaissance de genre grâce à des stimuli vocaux et faciaux combinés
Chez l’humain et le PNH, nous avons utilisé une simple tâche de détection en utilisant des stimuli naturels, visuels et auditifs, incluant des voix et des visages spécifiques. Pour tester si les bénéfices multi-sensoriels (ou l’effet signaux redondants) excédaient la facilitation prédite par l’addition des probabilités, nous avons appliqué l’inégalité du modèle des races (Miller 1982). Dans un modèle de co-activation, les stimuli multi-sensoriels convergent et interagissent avant l’initiation d’une réponse comportementale, menant à une diminution du seuil pour initier une réponse
Chez les patients adultes sourds et implantés, nous avons utilisé un protocole de type Mc Gurk pour lequel les participants doivent catégoriser des stimuli vocaux à partir d’un continuum de voix obtenu par morphing sur des voix d’hommes et de femmes qui prononce la même syllabe. La voix était combinée à un stimuli facial qui pouvait être congruent ou non avec la voix

L’homologie humain-macaque de l’architecture corticale. Nous avons atteint cet objectif en combinant des études anatomiques et électrophysiologiques chez le macaque (Bastos et al., 2015) et magnéto-encéphalographique chez l’humain (Michalareas et al., 2016).
Tâche 5 : Nous avons fini D5.1. Grâce à des stimuli vocaux et faciaux générés à partir de morphing, nous avons pu montrer que ces deux types de stimuli contribuaient à discriminer le genre via des interactions non-auditives. Les résultats montrent un réseau cortical dense pour représenter le genre dans lequel les signaux de voix et de visage sont intégrés à de multiples niveaux hiérarchiques suggérant que le processus de sélection n’est peut-être pas complètement capable de les démêler dans les processus de décision. Nous travaillons sur 5.2 avec un pilote IRMf afin d’optimiser les protocoles, et localiser les aires corticales impliquées dans la reconnaissance et dans l’intégration visage – voix et estimer les schémas de catégorisation multi-voxel pour les réponses visages - voix.
En utilisant une simple tâche de détection d’évènements naturels, visuels et auditifs, nous observons chez le singe et l’humain une large variabilité de gain MS. On a pu observer une violation du modèle des races qui représente une vraie intégration de stimuli bi-modaux, seulement dans les cas de gains MS élevés. Nous avons démontré que le bénéfice de l’intégration multi-modale dépendait de l’histoire sensorielle dans laquelle le patient était engagé.
De plus, chez les patients sourds, en dépit d’une récupération des fonctions auditives grâce à l’implant cochléaire, alors que l’attention est engagée dans une modalité auditive, le traitement de la voix humaine était largement influencé par l’information visuelle surtout quand les stimuli visage et voix sont sémantiquement pas congruents. De tels phénomènes dépendent probablement de la réorganisation cross-modale du cerveau qui se déroule durant la période prolongée de surdité.

Ce projet devrait nous informer sur la façon dont le cerveau intègre différentes informations de différents sens. Il semblerait que ce soit un processus computationnel complexe qui joue un role central dans le fonctionnement du cerveau. Les interactions visuelles et auditives joue un rôle particulier dans les interactions sociales chez le primate (humain ou non). Ce projet devrait permettre de mettre en lumière les circuits qui sont à l’origine de ce phénomène. D’un point de vue plus fondamental, notre étude permettra de mieux comprendre les caractéristiques à grande-échelle de l’architecture cognitive et d’en explorer les dynamiques fonctionnelles. Ces investigations feront partie de la théorie émergente du « codage prédictif ». Le codage prédictif est de plus en plus reconnu comme étant un modèle permettant de comprendre les mécanismes neuraux et computationnels mais aussi les maladies liées au cerveau.

Bastos AM, Vezoli J, Bosman CA, Schoffelen JM, Oostenveld R, Dowdall JR, et al. Visual Areas Exert Feedforward and Feedback Influences through Distinct Frequency Channels. Neuron. 2015;85(2):390-401.

Chaudhuri R, Knoblauch K, Gariel MA, Kennedy H, Wang XJ. A Large-Scale Circuit Mechanism for Hierarchical Dynamical Processing in the Primate Cortex. Neuron. 2015;88(2):419-31.

Michalareas G, Vezoli J, van Pelt S, Schoffelen JM, Kennedy H, Fries P. Alpha-Beta and Gamma Rhythms Subserve Feedback and Feedforward Influences among Human Visual Cortical Areas. Neuron. 2016.

Wang X-J, Kennedy H. Brain structure and dynamics across scales: in search of rules. Curr Opin Neurobiol. 2016;37:92-8.

Barone P., Chambaudie L., Strelnikov S., Fraysse B., Marx M., Belin P. and Deguine O. Crossmodal interactions during non linguistic auditory processing in cochlear-implanted deaf subjects. Cortex. In revision.

Nous avons récemment développé un modèle de réseau à grande échelle du cortex cérébral du macaque où les relations poids-distance déterminent de nombreuses caractéristiques de l'architecture corticale, dont l'existence d'un noyau cortical de haute densité (Markov et al., 2013). Nous avons supposé que le noyau cortical a un rôle important dans l'architecture cognitive sous-tendant les processus conscients et certains aspects de l'intégration multisensorielle (Dehaene et al., 2014). Notre projet utilisera une approche multidisciplinaire avec l'imagerie fonctionnelle globale du cerveau, l’électrophysiologie unitaire et l'anatomie quantitative pour rechercher le rôle du noyau dans le traitement de l'information, et mettra l'accent sur les circuits et les processus d'intégration multisensorielle. Nous complèterons les études sur l'homme par les techniques invasives disponibles chez le PNH et déterminerons ainsi l'organisation hiérarchique des processus impliqués entre les aires. La communication vocale et la perception visuelle des visages interagissent fortement chez l'homme et le PNH, ce qui mène à l'hypothèse d’unicité. Distribuées sur de nombreux niveaux, des aires auditives précoces au cortex préfrontal ventrolatéral, les interactions voix visage conviennent parfaitement à l'exploration du noyau cortical. Chez le PNH nous localiserons les aires de la voix et du visage en IRMf et identifierons les régions de forte intégration. Nous utiliserons les singes pour: (i) l’enregistrement neuronal unitaire qui déterminera les mécanismes électrophysiologiques de l’intégration; (ii) injecter des traceurs rétrogrades dans les aires du visage et de la voix pour déterminer les circuits pondérés et dirigés intégrant ces aires dans un réseau cortical de grande échelle. Nous utiliserons le traçage de voies pour comprendre les circuits de la voix et du visage, et pour valider la dMRI. En combinant la dMRI à haute résolution aux cerveaux utilisés pour le traçage de voies nous répondrons au besoin d’une évaluation de la fidélité des données d'imagerie, très pertinente pour la pratique clinique. Notre travail sur les PNH portera spécifiquement sur l'importance comportementale des interactions voix visage; les conséquences de l'inactivation des nœuds clés des circuits d’interaction étant testées au moyen de sondes de refroidissement. Pour combiner les signaux audiovisuels en un percept cohérent de visage parlant, le cerveau synchronise les signaux émanant d'une source commune. De telles combinaisons sont inférées au travers de l’apprentissage. Chez l’homme, nous nous baserons sur les études récentes appuyant la théorie du codage prédictif comme modèle d’étude des processus neuronaux de l’intégration voix visage. Le concept de codage prédictif dérive des modèles bayésiens de la fonction corticale, selon lesquels notre cerveau déduit des entrées sensorielles, un modèle interne du monde extérieur. En retour, le modèle interne prédit les entrées sensorielles. On pense donc que les signaux prédictifs reflètent des processus top-down, alors que les signaux d'erreur de prédiction sont des processus bottom-up. Nous examinerons ici ce lien entre la direction hiérarchique des flux d'information et les processus prédictifs en regard de nos travaux précédents (Gerardin et al., 2010). Au moyen de l’IRMf, nous étudierons chez l’homme l'interaction voix visage dans une tâche de discrimination de genre. Une technique d'estimation d'échelles supralimnaires/perceptives nommée mesure conjointe permettra de quantifier et de tester les influences mutuelles des signaux de visage et de voix dans la perception du genre. Nous combinerons les résultats psychophysiques aux données IRMf utilisant l’analyse de motifs de multivoxels (APMV). Il a été montré que l’APMV donne une mesure fine de la fonction corticale en imagerie et à l'aide de classificateurs définis APMV, nous testerons la capacité des aires corticales à décoder les stimuli pour comparaison avec la performance psychophysique.

Coordination du projet

Henry Kennedy (Institut Cellule Souche et Cerveau - U846)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenaire

WUSTL Department of Anatomy and Neurobiology
INSERM Institut Cellule Souche et Cerveau - U846
CNRS Centre de recherche Cerveau et Cognition - UMR5549

Aide de l'ANR 460 767 euros
Début et durée du projet scientifique : septembre 2014 - 48 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter