L'Agence nationale de la recherche Des projets pour la science

Translate this page in english

Nous suivre

  • ST MALO Spéciation de l’uranium dans des organismes vivants en milieu aquatique - Développements analytiques

    L’uranium et ses cibles biologiques dans les organismes d’eau douce.
    Mise au point d’un ensemble de méthodes analytiques non dénaturantes pour déterminer les complexes uranium-biomolécules intacts dans des organes cibles d’organismes aquatiques exposés à de l’uranium.

    Un défi analytique pour une question d’évaluation du risque écologique
    La détermination de la distribution et de la spéciation chimique des substances chimiques s’accumulant dans les organismes vivants est essentielle pour connaître leur devenir, caractériser l’exposition et élucider leur toxicité. En effet, mieux expliciter le lien entre l’exposition d’un organisme à une substance et sa toxicité, permet de proposer in fine des marqueurs d’exposition et d’effets pour l’évaluation du risque écologique. L’uranium (U) est un radioélément dont les concentrations dans l’environnement peuvent être augmentées par les rejets des installations du cycle de combustible nucléaire. Une fois entré dans les organismes, l’U peut former de nombreux complexes chimiques avec les biomolécules (protéines, peptides, acides nucléiques), pouvant impliquer un changement de leurs fonctions. Certaines études ont montré que l’U peut perturber le métabolisme d'éléments essentiels (fer, calcium) et entraîner d’importants dysfonctionnements cellulaires. Ainsi l’objectif principal a été de déterminer la microdistribution et la nature des cibles biologiques de l’U dans différents organes cibles d’organismes aquatiques modèles (poisson, écrevisse) exposés à l’U, pour comprendre son devenir moléculaire dans ces organismes aquatiques, en corrélation avec ses effets toxiques.
    Pour atteindre cet objectif, des développements analytiques de pointe sont nécessaires. Un des défis analytiques majeurs concerne la conservation des complexes chimiques U-biomolécule non-covalents et l’identification de ces molécules (spéciation). De plus, un effort particulier a été nécessaire pour explorer des niveaux d’accumulation en U très faibles (accumulation <50ng), issus d’exposition proches de celles de l’environnement, sur des organismes modèles, à l’échelle individuelle. Ces développements analytiques ont été effectués pour chacune des techniques de séparation chimique, de détection multiélémentaire et moléculaire, pour permettre l’identification des complexes U-biomolécule.



  • BioSyngOp Etudes operando en température et pression de la conversion du gaz de synthèse chargé de poisons typiques issus de la biomasse en méthane et hydrocarbures supérieurs.

    Pour la transformation de nos déchets en gaz et en essence
    Les effets de poisons tels que NH3, HCl, H2S et le toluène sur les catalyseurs utilisés pour la synthèse d’hydrocarbures à partir de mélanges CO/H2 obtenus lors de la gazéification de biomasses ou de déchets seront étudiés par spectroscopie dans des conditions réelles d’utilisation.

    Comprendre le rôle de bio-poisons lors de la synthèse de carburants
    Ce projet aborde les problèmes cruciaux liés à l'utilisation du bio-gaz de synthèse issue de la gazéification de la biomasse (mélange CO, CO2 et H2 contenant de nombreuses impuretés) et plus largement s'intègre dans la problématique du réchauffement planétaire et de la production locale de nouveaux vecteurs énergétiques et chimiques renouvelables pour le transport. Un obstacle majeur à la commercialisation de procédés dits «biomass-to-liquids« (BTL) réside dans ces impuretés du bio gaz de synthèse, toxiques pour les procédés catalytiques de transformation en hydrocarbures. Citons NH3, HCl, H2S et les goudrons.
    Deux procédés catalytiques importants concernent ces synthèses d'hydrocarbures: (i) la méthanisation ou synthèse du gaz naturel de substitution (GNS) et (ii) la synthèse d'hydrocarbures supérieurs ou synthèse Fischer-Tropsch (FT). Le rôle et l'impact de ces impuretés du bio gaz de synthèse dans et sur ces procédés catalytiques sont encore très mal connus. Ce projet a été abordé sous un angle très fondamental en utilisant des molécules représentatives : NH3, H2S, un composé chloré, et le toluène, cette dernière simulant les goudrons.



  • WaveSIMM Etude de la banquise par analyse des ondes sismiques

    Etudier la banquise par l’intermédiaire des tremblements de glace
    L’enjeu est double : d’une part estimer l’épaisseur de la banquise, d’autre part analyser sa fracturation, le tout à partir de l’analyse des ondes (houle, tremblements de glace)

    Méthodes sismologiques pour estimer l’épaisseur de la banquise et étudier sa fracturation
    La banquise arctique est en déclin accéléré depuis plusieurs décennies. Si la tendance se poursuit, l’océan arctique pourrait être libre de glace en été avant la fin du siècle, avec d’énormes conséquences environnementales (renforcement du réchauffement climatique aux hautes latitudes : phénomène d’amplification arctique, modification du biotope marin), économiques (ouvertures de routes maritimes, prospection d’hydrocarbures), et donc géopolitiques. Mais si l’étendue des glaces de mer est mesurée par satellite, l’évolution de son épaisseur est plus difficile à suivre. De même, les mécanismes à l’origine de ce déclin ne sont que partiellement compris, la seule augmentation de la fonte estivale sous l’effet des températures de l’air en hausse ne pouvant expliquer la rapidité du processus. L’objectif du projet est d’utiliser l’analyse des ondes mécaniques se propageant dans la couche de glace pour d’une part estimer son épaisseur moyenne, car les caractéristiques de la propagation des ondes dépendent de celle-ci ; et d’autre part d’étudier le processus de fracturation des glaces de mer par l’intermédiaire des tremblements de glace induits. En effet, une fracturation/fragmentation accrue de la banquise accroît sa mobilité, favorise donc son export hors du bassin arctique, et accélère donc son déclin à long terme.



  • EcoSec Réduction de l’impact environnemental des opérations d’hygiène dans les ateliers agro-alimentaires réfrigérés par une utilisation optimale de la déshumidification de l’air

    Utilisation optimale de la déshumidification de l’air pour l’hygiène des surfaces
    Recherche des programmes, technologies et configurations de déshumidification de l’air qui minimisent la survie de Listeria monocytogenes dans les ateliers réfrigérés en permettant des économies d’énergie ainsi qu’une réduction des rejets chimiques dans l’environnement.

    Utilisation de la déshumidification de l’air pour éviter la persistance de Listeria monocytogenes
    L’entrée de Listeria monocytogenes dans les ateliers agro-alimentaires est inévitable et des efforts considérables sont nécessaires pour éviter que la bactérie n’y persiste alors que des opérations d’hygiène y sont correctement menées. Par ailleurs, les opérations d’hygiène sont fortement consommatrices en eau et en produits d’hygiène, lesquels ne sont pas toujours respectueux de l’environnement. L’objectif général du projet est d’utiliser la déshumidification de l’air pour empêcher la persistance de la bactérie tout en réduisant l’impact environnemental des opérations d’hygiène. Nous chercherons la stratégie de déshydratation la plus destructrice et évaluerons le retard de croissance des cellules survivantes. Des efforts seront ensuite portés sur la compréhension des mécanismes cellulaires et moléculaires impliqués dans la réponse de la bactérie au stress hydrique.
    Une déshumidification de l’air est déjà réalisée chez de nombreux industriels mais de façon empirique. De plus, on ne sait pas prévoir les conditions climatiques auxquelles sont soumises les bactéries des surfaces en tout point d’un atelier ce qui sera recherché dans ce projet. Nous pourrons ainsi envisager des solutions techniques pour limiter les zones humides dans les ateliers industriels de façon économique et écologique. Dernier point, mais non des moindres, la déshumidification de l’air a un coût énergétique et EcoSec se propose de définir une technologie moins énergivore et adaptée aux besoins agro-industriels.



  • Froiloc-C Consolidation et validation élargie de la technologie FROILOC (froid ultrapropre localisé)

    FROId LOCalisé ultrapropre pour l’hygiène et les conditions de travail en industrie alimentaire
    Consolidation des principes scientifiques et techniques de la technologie brevetée FROILOC. Analyse et optimisation de la gestion de flux d’air froids soufflés sur les produits alimentaires, avec préservation des conditions de travail en atmosphère tempérée.

    Concilier la sécurité des aliments et l’amélioration des conditions de travail.
    Plus de la moitié des achats alimentaires réalisés dans les pays développés sont des denrées périssables présentées à la vente en ambiance froide. Leur production et leur conditionnement nécessitent des ambiances froides et, pour les produits nus craignant la contamination par l’air, un environnement ultrapropre. Les industriels de l’alimentaire ont, depuis les années 90, considérablement amélioré les conditions sanitaires de leurs productions. Les progrès spectaculaires dans l’hygiène des productions créent malheureusement un coût humain de moins en moins supportable sous la forme de troubles de santé liés au travail en ambiance froide. Les Troubles Musculo-Squelettiques (TMS) en sont l’expression la plus spectaculaire.
    Ces problèmes de santé au travail, alliés au déficit d’image des métiers de l’alimentaire auprès des jeunes, conduisent à un cercle vicieux économique et social dont l’exil des emplois vers les zones à bas coûts et l’importation de main d’œuvre plus tolérante sont des conséquences déjà avérées.
    Le développement de la technique FROILOC est parti de la nécessité de traiter cette contradiction entre l’objectif sanitaire de maintien d’atmosphères froides, éventuellement ultrapropres, au contact des produits alimentaires, et le besoin impérieux de remonter la température des ambiances subies par les opérateurs des ateliers de transformation, découpe et conditionnement. L’idée est de produire un principe technique nouveau destiné à localiser des flux d’air propres et froids sur les zones entourant les produits, en limitant fortement la diffusion du froid dans l’ambiance. En termes d’enjeu industriel et économique, cette approche vise également un gain énergétique par la réduction des puissances froid nécessaires.



  • (NI)² Ni guerre, ni paix ? Les nouages de la violence et du droit dans la formation et la transformation des ordres politiques

    Ni guerre, ni paix ?
    Les nouages de la violence et du droit dans la formation et la transformation des ordres politiques

    Un projet de recherche fondamentale qui vise à diagnostiquer les transformations de la violence dans leurs rapports avec l'ordre juridique et politique
    (NI)² est un projet de recherche fondamentale dans les sciences sociales, historiques, politiques et juridiques, mené par une jeune équipe pluridisciplinaire associant anthropologues, historiens, juristes, philosophes, politistes et sociologues. Il poursuit l’objectif de contribuer à l’étude de la formation et de la transformation des ordres politiques. Il s’appuie pour ce faire sur l’hypothèse selon laquelle un ordre politique peut se caractériser par les nouages de la violence et du droit qui s’y observent. Ces ordres politiques seront étudiés suivant la méthode consistant à les observer dans des moments d’épreuve, lorsque ces nouages de la violence et du droit subissent des dislocations, les rendant jusqu’à un certain degré incertains et appelant des actions visant à rétablir une situation stable. Dans le contexte actuel, on observe qi'il est en effet de plus en plus difficile d’identifier de façon univoque le genre d’institutions, d’organisations et de groupes engagés dans les conflits et les actions qu’ils mènent. Cet embarras à définir avec des catégories claires la nature des situations de violence armée et les types d’acteurs impliqués vaut pour la plupart des foyers de violence contemporains : des logiques guerrières s’y mêlent à des stratégies criminelles ; le statut des combattants y est flou et l’on peine à distinguer le soldat du militant, le policier du milicien ou encore le terroriste du partisan ; l’espace d’affrontement est lui aussi indéterminé, rendant inopérant la séparation entre le front et l’arrière, au même titre que le droit qui s’applique dans ces contextes et les instances appelés à le faire respecter. L’objectif principal de (NI) ² est donc de contribuer à expliquer puis à lever cette indétermination catégorielle qui affecte aujourd’hui les façons que nous avons de considérer une diversité de conflits violents.



  • BrainEver Transduction des homéoprotéines, périodes critiques et plasticité corticale

    Régulation de la plasticité cérébrale
    La compréhension d'un nouveau mécanisme de régulation de la plasticité cérébrale peut permettre de comprendre l'origine de certaines pathologies liées au développement et de rouvrir la plasticité chez l'adulte.

    Comprendre la régulation de la plasticité du cortex cérébral
    Le cortex cérébral s'adapte à son environnement au cours de périodes du développement appelées périodes critiques. Les périodes critiques varient par leur date de début et leur durée selon les régions du cortex (vision, audition, langage, interaction sociale...). Une fois ces périodes critiques passées, la plasticité est toujours présente mais sous une forme très réduite, ce qui diminue les capacités d'apprentissage et de régénération. Par ailleurs certaines pathologies, dont des pathologies psychiatriques, sont attribuées à des accidents dans le bon déroulement d'une ou plusieurs périodes critiques. Nos observations suggèrent que le cortex cérébral est fondamentalement plastique mais que cette plasticité et verrouillée après sa période critique par la capture d'une protéine appelée Otx2 par une classe particulière de neurones corticaux, les neurones PV. Sur cette base, nous avons entrepris de vérifier, dans le système visuel, si bloquer cette capture chez l'adulte rouvre la plasticité et permet de guérir l'amblyopie chez la souris, maladie de la période critique du développement de la vision binoculaire. Nous avons effectivement pu guérir l'amblyopie chez la souris et les enjeux suivants sont de comprendre les mécanismes impliqués et d'étudier si ce qui est vrai pour la vision a une valeur plus générale et peut s'appliquer à d'autres fonctions cérébrales, y compris des fonctions cognitives.



  • MEROD La représentation mentale des odeurs: de la stimulation physique au traitement perceptif

    Etudier la représentation de l'odeur dans le cerveau humain par une approche cognitive et neuroscientifique
    Le projet MEROD combine des expertises en olfaction humaine et en psychologie cognitive. Il vise à mieux comprendre les représentations mentales des odeurs, dans la perspective fondamentale de déchiffrer leur organisation neurale, et dans la perspective éducative de proposer des cours originaux dans le domaine de la psychologie du goût et de l'odeur.

    Comprendre comment le cerveau humain représente les odeurs et diffuser cette connaissance au grand public
    Au tournant du siècle la notion que l’être humain moderne et civilisé peut se passer de l’odorat est devenue obsolète : ce sens caché, sans parole, jusque-là considéré comme surnuméraire dans la cognition, est devenu un objet d’études et donc, de connaissances nouvelles. Sa reconnaissance comme objet scientifique est illustrée par des prix Nobel, mais la société aussi est devenue plus hédoniste, et par là plus attentive aux effets émotionnels des odeurs. Les odeurs, appelées également flaveurs lorsqu’elles sont présentes dans nos aliments, sont sources à la fois de plaisir et de lien social ; elles influencent aussi notre sexualité, nos relations avec autrui en général et avec nos enfants en particulier. Elles contribuent à notre équilibre émotionnel et à notre bien -être, puisque la perte de l’odorat a des conséquences délétères sur cet équilibre.
    Un enjeu important en psychologie cognitive est de comprendre comment le cerveau humain représente les objets olfactifs. La représentation d’objets visuels est bien mieux comprise ; on sait que les attributs physiques et perceptifs des stimuli visuels sont représentés de manière distribuée et hiérarchisée, mais en ce qui concerne la modalité olfactive, la manière dont les propriétés chimiques des molécules odorantes et les aspects perceptifs des odeurs sont représentés dans les voies olfactives humaines est toujours mal comprise. L'objectif du projet MEROD est de tester l’hypothèse que la représentation multidimensionnelle des odeurs est le résultat d’un mécanisme neuronal traitant les similarités entre les informations chimiques et perceptives à différents niveaux du système olfactif.



  • TSSP et T1D TSSP, une nouvelle cible thérapeutique pour le traitement du diabète autoimmun: preuve de concept

    TSSP, une nouvelle cible thérapeutique pour le traitement du diabète autoimmun
    Le diabète autoimmun est une pathologie chronique du système immunitaire débutant chez l'enfant avec de nombreuses complications cardiovasculaires liées à la dérégulation de la production des hormones pancréatiques. Le projet vise à évaluer une nouvelle stratégie ciblant le système immunitaire pour mieux contrôler les cellules T impliquée dans la destruction progressive des cellules productrices d'insuline.

    Preuve de concept d'une nouvelle stratégie dans le diabète autoimmun
    Le diabète de type 1 (T1D) est une maladie autoimmune résultant d'une destruction progressives des cellules productrices d'insuline par des cellules T autoréactives. Le seul traitement actuel repose sur des injections régulières d'insuline qui ne permettent malheureusement pas de contrôler l'ensemble des problèmes cardio-vasculaires secondaires liés à des dérégulations de la production des hormones pancréatiques. Notre équipe a mis en évidence les propriétés originales d'une nouvelle protéase, TSSP, dans le contrôle des cellules autoréactives impliquées dans la destruction des cellules productrices d'insuline du pancréas. En se basant sur ces propriétés, le projet vise à tester une nouvelle stratégie d'immuno-intervention qui permettrait de contrôler à long terme ces cellules autoréactives et ainsi une régénération des cellules productrices d'insuline.



  • E-GRAAL Alerte sismique précoce via la détection des perturbations de gravité lors de la rupture de la faille

    Système d'alerte précoce des tremblements de terre basée sur la perturbation de la gravité
    Étude de la faisabilité d'un système d'alerte précoce des tremblements de terre basée sur la détection de la perturbation de la gravité pendant la rupture de la faille.

    Étude de la faisabilité d'un système d'alerte précoce des tremblements de terre basée sur la détection de la perturbation de la gravité pendant les premières secondes de la rupture de la faille.
    L'objectif the ce projet est l’étude de la faisabilité d'un système d'alerte précoce des tremblements de terre basée sur la détection de la perturbation de la gravité pendant les premières secondes de la rupture de la faille. Les systèmes d'alerte précoce des tremblement de terre (ou earthquake early-warning systems, EEWS) sont des dispositifs automatiques (composé par des sismomètres et des systèmes de communication) capable de détecter la survenue d'un tremblement de terre le plus tôt possible et délivrer une alerte régionale avant l'arrivée des fortes secousses sismiques. Les systèmes conventionnels utilisent la différence de vitesse entre les ondes P (plus rapides et non dangereuses) et les ondes S (plus lentes et destructives). Chaque seconde d'alerte peut avoir un grand impact en terme de préservation des vies humaines et des la réduction des conséquences du tremblement de terre, car il permet l'activation de procédures de sécurité pour les personnes, mais aussi le lancement de systèmes de prévention automatique (l'arrêt de trains, l'arrêt des ascenseurs, le contrôle des feux de signalisation, la sauvegarde de données informatiques vitales et d’autres). Puisque la perturbation du champ de gravité se produit à la vitesse de la lumière, un système d’alerte basé sur la gravité pourrait être beaucoup plus rapide des systèmes conventionnels. De plus ce système pourrait réduire la zone aveugle d'un système d'alerte (la zone trop proche de l'hypocentre ou il n'est pas possible de délivrer une alerte), mais aussi d'avoir une estimation plus rapide de la magnitude du tremblement de terre.



  • EXPLABIO Les explications dans la biologie de l'évolution

    L'espace des explications en biologie évolutionnaire
    EXPLABIO vise à étudier les modalités de l’explication dans la biologie de l’évolution, afin d’évaluer les tentatives récentes d’étendre ou de réviser son cadre classique. Nous partons de l’idée que les avancées récentes en écologie, biologie moléculaire et théorie évolutionnaire du développement (Evo-devo) sont caractérisées par de nouvelles structures et caractéristiques explicatives, qui requièrent une nouvelle compréhension de la nature explicative de la biologie de l’évolution.

    Axes d'investigation et leur jiustification
    Pour les évolutionnistes l’espace des explications est structuré selon deux axes- les deux questions : « comment procède la sélection ? » et « pourquoi y a-t-il sélection ? » ; le troisième concerne la nature mécanistique ou topologique des explications – « topologique » signifiant ici le caractère explicatif d’un ensemble de propriétés d’une structure abstraite associée au système. EXPLABIO reconstruira cet espace en détails, via quatre tâches interconnectées : examiner les explananda de la sélection naturelle en tant qu’explication au niveau populationnel ; explorer les modalités de l’explication topologique à différents niveaux et leur articulation aux explications mécanistiques ; questionner le statut des processus neutres et des réseaux neutres en tant qu’outils explicatifs généralisés en écologie (i.e. théorie neutre de l’écologie, de Hubbell) et en évolution (i.e. théorie neutraliste de l’évolution moléculaire de Kimura), et par là interroger le statut explicatif de la neutralité et du hasard ; finalement, aborder le rôle que jouent les couplages et des découplages entre échelles d’espace-temps dans la définition des explananda et le choix des modèles.
    Pour la biologie, le résultat global consistera en des indications sur les complémentarités et les antagonismes existant entre des théories rivales et leurs méthodologies ; pour la philosophie, ce sera une compréhension plus claire des rôles que jouent dans la biologie en général la stochasticité et le déterminisme, le niveau populationnel et le niveau individuel, et finalement la séparation d’échelle.
    Ces tâches seront réalisées successivement, usant d’outils mathématiques pour définir les conditions de validité des types d’explication, et de données empiriques (comme des données sur les réseaux de gènes régulateurs d’un type cellulaire donné, ou bien sur deux communautés écologiques comparables au même niveau trophique) afin de vérifier la satisfaction de ces conditions pour des systèmes spécifiques.



  • AUTOCHTOM Legs colonial et outre-mer autochtones : Kanak de Nouvelle-Calédonie, Amerindiens de Guyane et Ma'ohi de Polynésie face à deux institutions de la République Française (justice, école).

    Sortir du colonial ? Trajectoires « autochtones » dans l’outre-mer français
    Ce projet examine la question du legs colonial en France à partir du cas méconnu des populations se revendiquant de l’autochtonie politique dans l’outre-mer français : Amérindiens et Noirs-Marrons de Guyane, Kanak de Nouvelle-Calédonie et Ma'ohi de Polynésie. Il analyse le rapport de ces populations à deux institutions-clés de l'Etat (post)colonial français (justice et école), afin d'appréhender concrètement les continuités et les ruptures entre l’époque coloniale et la situation contemporaine.

    Le « legs colonial » au prisme de la justice et de l’école : Guyane, Nouvelle-Calédonie, Polynésie française
    Vue de métropole, la marginalité des populations «autochtones« au sein d’un outre-mer lui-même intrinsèquement périphérique contraste avec le surgissement périodique d’épisodes violents : affrontements de 1984-1988 en Nouvelle-Calédonie, émeutes de Faa’a-Tahiti (1995), Cayenne (1996) et Nouméa (2009), mouvement guyanais contre la « pwofitasyon » (2008-09), etc. Au-delà de leur caractère conjoncturel, ces événements sont révélateurs de tensions sociales structurelles, dont attestent de nombreux indicateurs (vie chère, chômage, pauvreté, échec scolaire, taux d’incarcération, illettrisme, etc.).
    Dans les discours scientifiques comme dans le sens commun, l’étiologie de cet état de fait mobilise l’héritage du passé colonial de façon paradoxale : soit il est présenté comme constituant le principal élément explicatif des difficultés contemporaines ; soit il est au contraire totalement oblitéré et considéré comme non pertinent, au nom des décennies qui nous séparent désormais du temps des colonies. Dans les deux cas, aucune analyse empirique ne vient étayer ces discours surplombants. On ignore ce qu’il est concrètement advenu des rapports sociaux établis pendant la colonisation, depuis l’accès au statut de département d’outre-mer (Guyane) ou de territoire d’outre-mer (Nouvelle-Calédonie, Polynésie) en 1946. Quelles seraient les modalités effectives de la transmission d’un « passif » colonial d’une génération à l’autre ?
    Pour répondre à ces questions, nous avons resserré notre champ d’investigation à deux institutions – souvent invoquées mais rarement analysées – auxquelles Amérindiens, Noirs-Marrons, Kanak et Ma’ohi sont confrontés : l’école et la justice. De fait, ces deux administrations se révèlent à la fois fondamentales dans la définition historique de la condition indigène, et centrales dans les expériences contemporaines des autochtones. Notre recherche se focalise surtout sur les «points de rencontre« entre ces institutions et les individus perçus comme autochtones.



Rechercher un projet ANR