L'Agence nationale de la recherche Des projets pour la science

Translate this page in english

Nous suivre

  • COAGO Site co-agoniste des récepteurs NMDA: de la dynamique synaptique à des mécanismes de signalisation nouveaux

    Modulation du site glycine des récepteurs NMDA
    Les récepteurs NMDA du glutamate sont au cœur des processus cognitifs de notre cerveau comme l’apprentissage, la mémoire et ils sont aussi impliqués dans de nombreuses maladies neurodégénératives. Le projet COAGO vise à identifier la nature du coagoniste endogène et son implication dans le fonctionnement des récepteurs NMDA.

    Réguler les récepteurs NMDA pour soigner les maladies neurodégénératives
    Les maladies neurodégénératives comme la maladie d’Alzheimer ou de Parkinson sont associées à des déficits cognitifs prononcés reflétant des dysfonctionnements majeurs de la transmission de l‘information dans le cerveau. Cette transmission de l’information se fait au niveau de structure spécialisée appelées synapses qui possèdent la capacité d’être plastiques, c’est-à-dire de pouvoir adapter leur fonction au grès des modifications de leurs environnement et de l’activité neuronale. Ce phénomène repose sur un type de récepteur du glutamate bien particulier, les récepteurs NMDA. Afin de mieux appréhender les désordres cognitifs associés aux maladies neurodégénératives, il est donc essentiel de mieux comprendre le mode opératoire des récepteurs NMDA. C’est ce que nous proposons de faire avec le projet COAGO qui vise à disséquer la régulation des récepteurs NMDA par leur coagoniste endogène qui peut être soit la glycine, soit la D-sérine.



  • CHIRACID Acides de Brønsted à chiralité plane pour l'organocatalyse énantiosélective

    Acides de Brønsted à chiralité planaire pour l'organocatalyse énantiosélective
    L’objectif de ce projet réside dans le développement d’une nouvelle famille originale d’ acides de Brønsted chiraux, à chiralité plane. Ces nouveaux catalyseurs seront développés et exploités dans un domaine majeur de la chimie organique : l’organocatalyse énantiosélective.

    Nouveaux acides de Brønsted à chiralité planaire et leurs utilisations en organocatalyse énantiosélective
    La catalyse (action d'une substance appelée catalyseur sur une transformation chimique dans le but d'augmenter sa vitesse de réaction) offre des voies d’accès efficaces à des nouveaux composés chimiques qui peuvent être valorisés dans de nombreux domaines tels que la pharmacie, l’agrochimie et les matériaux. Après les succès incontestables de la catalyse enzymatique et de la catalyse homogène et hétérogène par les métaux de transition, les derniers développements dans le domaine de la catalyse, afin de relever les défis modernes de la chimie, portent sur l’organocatalyse. L’organocatalyse peut être définie comme la catalyse de transformations chimiques par une molécule purement organique de faible poids moléculaire. Ces catalyseurs organiques de petites tailles présentent de nombreux avantages par rapport aux enzymes ou à des catalyseurs constitués de métaux précieux : stabilité à l'air et à l'humidité, faible toxicité et sont très facilement accessibles. Ainsi ce concept de transformation chimique par organocatalyse rencontre de nombreux champs d’application aussi bien dans le milieu académique que dans l’industrie. En effet, le concept d’organocatalyse répond aux nombreuses exigences de la chimie verte moderne (pas de déchet de métaux, des synthèses moins dangereuses et l'utilisation de réactifs en quantité catalytique au lieu de quantité stoechiométrique).
    Le but de ce projet consiste à développer une nouvelle famille d’organocatalyseurs à fonction acides de Brønsted. Les nouvelles structures cibles sont des acides phosphoriques cycliques, avec un motif paracyclophane et présentant une chiralité planaire. Des approches synthétiques seront développées afin de proposer un accès efficace et facilement modulable à ces nouvelles structures.



  • LORETA Localisation par Retournement Temporel Acoustique

    Localisation par Retournement Temporel Acoustique (LORETA)
    La description ci-dessous reprend le réumé du projet.

    Enjeux et objectifs
    La localisation des événements acoustiques transitoires revêt un intérêt dual, pour la surveillance passive de zones, et pour se protéger face aux tirs de snipers. Des outils de localisation acoustique ont été développés, et ont démontré leur efficacité dans des environnements dans lesquels les effets de propagation ne jouent pas trop. Or en environnement urbain, le sol et les obstacles modulent considérablement le signal émis par la source acoustique, par masquage, réflexion et diffraction du son. Ces modulations limitent dramatiquement la performance des outils de localisation classiques.

    L’enjeu scientifique et technique est de concevoir et développer des systèmes de localisation intégrant les phénomènes de propagation complexes liés à l’environnement urbain. L’Institut franco-allemand de recherches de Saint-Louis (ISL) a initié le développement d’un outil de localisation basé sur le concept de retournement temporel. Le principe consiste à enregistrer le signal acoustique en différentes positions, à retourner la chronologie des enregistrements, puis à simuler la propagation des signaux retournés dans l’environnement urbain numérisé. L’interférence maximale permet de localiser l’origine du signal. L’outil a montré sa pertinence dans des cadres idéalisés, tout en soulevant la nécessité de décrire plus complètement et efficacement la propagation des sons transitoires en environnement urbain.



  • SKYLINE Le skyline : un concept opérationnel pour la gouvernance de la silhouette urbaine face aux retour des tours à Paris, Lyon et Londres

    Le skyline : un concept opérationnel pour la gouvernance de la silhouette urbaine face aux retour des tours à Paris, Lyon et Londres
    SKYLINE est une recherche associant chercheurs et praticiens sur les enjeux politiques, économiques et sociaux d’une dimension contestée du paysage urbain : le skyline. Le projet est justifié par l’absence de conceptualisation du skyline et la multiplication récente des tours dans les villes européennes. Le projet porté par M. Appert, mobilise EVS, l’EIVP, le LIRIS et l’Agence d’urbanisme de Lyon. Skyline a bénéficié d’une aide ANR de 295?000 euros pour un coût complet de 1?137?213 euros.

    La verticalisation de l’urbanisation et l’impact paysager des tours dans le skyline des métropoles
    Du fait de leur proéminence, les tours induisent des impacts paysagers majeurs qui en font les édifices parmi les plus contestés, au moment où le paysage est mobilisé pour faire adhérer les populations aux projets urbains. Promouvoir une ville durable ne se limite pas à identifier et mettre en œuvre les conditions d’une ville moins énergivore?; il s’agit aussi de considérer l’altération potentielle des rapports des sociétés urbaines à leur paysage dans le contexte de verticalisation de l’urbanisation. Projection des activités, des normes et des règlements urbains, le paysage urbain est un marqueur territorial et une ressource économique et sociale. Le retour des tours mobilise plusieurs dimensions du paysage dont le skyline, en tant que matérialité et représentation d’une vaste portion du territoire urbain lue dans sa verticalité. Il est au cœur de conflits entre acteurs économiques, praticiens, élus et associations. Le projet SKYLINE a pour ambition de mesurer la verticalisation en cours, d’identifier les enjeux de l’impact paysager des tours dans le skyline et de proposer des outils d’aide à la décision à l’attention des collectivités, mais aussi des associations mobilisées.



  • SHTS Histoire sociale des sociétés tibétaines du XVIIe au XXe siècle

    Une histoire inédite de la société tibétaine à Lhasa, dans l’Himalaya et les régions frontalières chinoises du XVIIe au XXe siècles
    En collaboration avec l’université de Bonn, une équipe multinationale de chercheurs basée en France utilisera des ressources jusqu’ici inexploitées pour obtenir une compréhension plus claire de la société tibétaine sur une période historique de trois siècles.

    Au-delà du mythe : dévoiler la réalité des « populations sans histoire » au Tibet
    L’histoire des petites principautés situées dans le « Tibet ethnographique » et celle des relations qu’elles ont entretenues entre elles et avec les pouvoirs politiques plus importants mérite davantage d’attention qu’elle n’en a reçue jusqu’à présent : non seulement pour comprendre comment la société fonctionnait à une petite échelle, mais aussi parce qu’une image bien plus riche de l’ensemble peut ressortir d’études détaillées des parties qui le composent. Pour de nombreux auteurs, le point de vue resserré de l’ « histoire d’en bas » se justifie de lui-même, dans la mesure où l’intérêt porté au niveau local pour les « gens sans histoire » constitue un sujet légitime d’étude pour l’historien. Cependant, la vision la plus complète est que ces observations à un niveau local, lorsqu’on les appose de façon spécifique à la perspective du centre, sont d’une importance significative dans la composition du tableau d’ensemble. Le projet examinera des groupes sociaux particuliers et des institutions comme la famille et la maisonnée, l’organisation du village, l’économie du servage, les artisans, les marchands, les élites aristocratiques et ecclésiastiques, les systèmes légaux, les cours de justice, etc. Les régions étudiées sont le Tibet central, la périphérie nord-est, la ceinture himalayenne et l’administration Qing basée à Pékin.



  • GRETA GREediness: Theory and Algorithms

    GRETA -- GREdiness: Theory and Algorithms
    Over the past few years, many problems of automatically computing sparse representations of data have been addressed through convex optimization formulations. However, aiming for sparsity actually involves an l0 “norm” regularization/constraint, and the convex optimization way is essentially a proxy to achieve this sparsity. Here, we want to set the focus on another way of dealing with the sparsity objective, which, to our opinion, has been overlooked: greedy methods.

    Connexions entre apprentissage et traitement du signal, le point de vue glouton
    L'objectif principal de GRETA est d'établir et d'identifier des liens méthodologiques entre l'apprentissage automatique et traitement du signal du point de vue des méthodes gloutonnes. Plus précisément , nous allons aborder et apporter des solutions originales aux problèmes partiellement résolus suivantes :
    • le développement de nouvelles procédures MP / OMP pour le cas de dictionnaires qui ne sont pas associés à des transformées rapides : i ) des propositions algorithmiques sont visées, qui s'appuieront sur la création de structures de données appropriées , ii ) des questions relatives à la parcimonie structurée seront d'un intérêt primordial , et iii ) le problème de l'apprentissage de dictionnaires appropriés sera abordé.
    • le développement de nouvelles procédures MP / OMP pour le cas de fonctions de perte arbitraires, autres que la perte des moindres carrés : i ) la vitesse de convergence des algorithmes proposés sera au centre de ce problème et ii ) la pertinence des algorithmes pour diverses tâches d'apprentissage (par exemple, l'apprentissage semi-supervisé, la transduction et sa connexion à inpainting ) sera étudiée ;
    • la bénédiction de la gloutonnerie : au-delà de la simple efficacité de calcul apportée par les méthodes gloutonnes, nous pensons qu'il y a un certain nombre de situations où elles ont des conséquences positives du point de vue de la généralisation ; en conséquence, nous allons travailler sur la proposition de nouveaux outils pour l'apprentissage statistique qui permettraient de lier formellement les propriétés des algorithmes gloutons et la généralisation : ces outils peuvent largement s'appuyer sur les quantités comme telles que le «spark« ou l'incohérence .



  • SPIDERMAN Etude de la décomposition spinodale dans les aciers martensitiques Fe-X-C

    SpiDeRMan
    Etude de la décomposition spinodale dans les aciers martensitiques Fe-X-C

    Etude à l'échelle atomique des mécanismes de vieillissement des martensites ferreuses vierges à basse température (T<150°C)

    Caractérisation et compréhension des phénomènes de vieillissement à basse température des martensites ferreuses
    L'acier est le matériau structural de loin le plus utilisé par l'homme et son importance dans l'économie mondiale est primordiale. Parmi ses formes diverses, la martensite est celle qui présente la plus haute résistance. Cependant, la martensite n'est pas stable à température ambiante et se décompose en une structure inhomogène, constituée de Fe et nanodomaines riches en C. Cette décomposition est accompagnée d’une évolution des propriétés mécaniques de la martensite. Jusqu'à présent, aucune étude complète de ce mécanisme de transformation de phase n’a été menée.
    L'objectif principal de ce projet est de combler ce manque de connaissances de base sur le vieillisseent à basse température de la martensite (T<150°C). Ce vieillissement se produit très probablement par décomposition spinodale. Nous proposons d'examiner dans des détails le(s) mécanisme(s) de transformation de phase impliqué(s), aussi bien que la phase finale produite. L'approche choisie est de modéliser les mécanismes physiques, principalement par champ de phase cristallin (PFC), et de confronter ces simulations avec des résultats obtenus par des techniques de nanoanalyse à l'échelle atomique, comme la tomographie atomique (APT) et la microscopie électronique en transmission (TEM). Les paramètres d'entrée du modèle (interaction de paire principalement, et énergies élastiques), seront obtenus par simulation ab initio. Les analyses microstructurales valideront les simulations de vieillissements isothermes.
    Le but ultime est d'établir un diagramme de phase à basse température (T<150°C) pour le système Fe-C, comprenant la nature de la (ou des) phase(s) finale(s) et les limites de leur(s) domaine(s) existant, en termes de température et de composition.



  • MobiClimEx Dynamique des mobilités quotidiennes et résidentielles face aux extrêmes hydrométéorologiques en contexte de changement climatique

    Dynamique des mobilités quotidiennes et résidentielles face aux crues rapides
    MobiClimEx s'intéresse à l'exposition des individus face aux crues rapides au travers de leurs déplacements quotidiens (exposition sur la route) et de leurs mobilités résidentielles (exposition au domicile). Il vise à estimer l'évolution de cette exposition dans un contexte de changement climatique.

    Dynamiques des crues rapides et des réponses sociales à différentes échelles
    MobiClimEx vise à observer les dynamiques combinées des phénomènes de crues rapides et des réponses sociales à différentes échelles d'espaces et de temps. Il s'agit tout d'abord d'observer comment l'événement fait irruption dans l'environnement quotidien des individus et comment il modifie leurs programmes d'activités, leur mobilité et donc leur exposition. Il s'agit en outre d'observer les mobilités résidentielles à plus long terme et l'influence des politiques publiques mises en oeuvre dans les zones exposées aux crues rapides. MobiClimEx vise enfin à comprendre comment ces évolutions résidentielles modifient les conditions d'exposition quotidienne, en faisant varier la mobilité pendulaire, particulièrement vulnérable face aux crues rapides. L'approche est appliquée au département du Gard, site pilote de l'observatoire hydro-météorologique Cevennes-Vivarais (OHM-CV), dans la logique l'observation proposée par le programme HyMEx (HYdrological cycle in Mediterranean EXperiment).



  • PARTIPOL Les politiques à l’épreuve des partis, ou vice-versa? Visibilité des enjeux, arbitrages politiques et transformations des organisations partisanes en France

    Les politiques à l’épreuve des partis, ou vice-versa?
    Visibilité des enjeux, arbitrages politiques et transformations des organisations partisanes en France

    Un projet mobilisant des méthodes mixtes pour explorer l'influence des partis dans la fabrique des politiques publiques françaises
    Les liens entre partis et politiques publiques sont au cœur de l’exercice démocratique. Depuis plusieurs décennies, une série de discours politiques et scientifiques mettent pourtant en avant plusieurs types de contraintes, liées notamment aux interactions avec d’autres acteurs, à la compétition internationale, à l’intégration européenne, à la limitation des ressources énergétiques, etc. L’espace politique disponible pour se démarquer des partis concurrents serait toujours plus exigu. Les politiques sont-elles (de plus en plus) indépendantes de la politique ? Les joutes politiques se résument-elles désormais à une mise en scène ? PARTIPOL examine, à partir du cas français, ce décalage apparent entre, d’une part, théories normatives et discours de légitimation de la démocratie et, d’autre part, pratiques de représentation. La question de l’empreinte des partis sur les politiques est ancienne mais il semble toujours difficile de lui apporter une réponse empirique. Ce projet part de l’observation que le contexte français, marqué par des alternances régulières et récentes, offre un cas stimulant dont l’étude permettra de surmonter les conclusions mitigées du débat du « Do Parties Matter ».

    À cette fin, nous proposons de différencier la problématique pour nous concentrer sur les conditions favorisant l’adoption de politiques « partisanes », de tenir compte de la manière dont l’exercice du pouvoir peut également altérer les positions et discours partisans (les partis à l’épreuve des politiques ?) et d’opérationnaliser de manière fine les préférences partisanes et les choix de politique publique, analysés à partir du cas des lois françaises adoptées depuis mai 1981.

    Le protocole de recherche comparatif et mixte combine des analyses, enjeu par enjeu, des lois adoptées, des discours partisans et de la couverture médiatique, et des entretiens avec des élites partisanes et des acteurs de la fabrique des lois.



  • Food-Redox Maîtrise des flores pathogènes et d’altération des produits alimentaires grâce à une utilisation raisonnée du potentiel d’oxydoréduction

    Assurer une alimentation saine et durable par des procédés alimentaires innovants
    La filière alimentaire est attentive aux développements de nouvelles technologies et procédés modérés permettant de concilier la qualité nutritionnelle, la qualité sensorielle, et la conservation des aliments. Il s’agit également d’évoluer vers des démarches toujours plus respectueuses de l’environnement, du site de production jusqu’au distributeur.

    Amélioration des procédés de conservation des aliments
    Conserver les produits alimentaires tout en préservant leurs propriétés, leur sécurité microbiologique, et avec une technologie à impact environnemental réduit est un challenge permanent dans l’agroalimentaire. L’objectif est d’utiliser un nouveau paramètre, le potentiel rédox (Eh) que l’on pourra moduler dans les procédés en vue d’augmenter la durée de vie des produits, et d’abaisser l’impact environnemental liés à leur fabrication et leur transport. Food-Redox se situe clairement dans la perspective d’application de technologie à moindre consommation énergétique (traitement thermique plus doux par le contrôle du Eh). Food-Redox va conforter la qualité et la sécurité microbiologique des aliments et par conséquent
    contribuer à réduire les coûts économiques pour les opérateurs et les distributeurs, liés aux retraits de produits mal préservés au cours de leur commercialisation. Ce projet offre différentes opportunités au bénéfice de la filière agro-alimentaire, à savoir de renforcer leur compétitivité dans le contexte de développement de méthodes et de techniques pour la conservation du produit alimentaire.



  • INTENSE INTégration ENergétique des Systèmes et de l’Enveloppe des bâtiments : développement d’une méthodologie et d’un outil de conception optimisant la performance globale.

    Conception optimisée des bâtiments sur leur cycle de vie, intégrant les performances énergétiques, économiques, environnementales et de confort.
    Les bâtiments à haute performance énergétique mettent en oeuvre davantage de moyens pour la réduction des besoins et la production d'énergie d'origine renouvelable. Leur conception nécessite de réaliser une optimisation multicritère prenant en compte le cycle de vie et les coûts financiers. L'approches traditionnelle de conception par étape (sobriété, efficacité, énergies renouvelables) laisse la place désormais à des approches globales prenant en compte toute la complexité du problème.

    Développement d'une méthodologie d'optimisation de la conception basée sur les algorithmes génétiques et les modèles de substitution de type krigeage.
    Les bâtiments du futur seront producteurs d’énergie et viseront donc à valoriser au mieux les différentes sources renouvelables pour satisfaire les besoins énergétiques du bâtiment liés au secteur d’activité et aux occupants. La gestion des différentes sources énergétiques et du stockage, le confort des occupants dans des bâtiments fortement isolés doivent être optimisés lors de la conception. C’est aussi le cas des critères environnementaux et financiers qui ne peuvent pas être négligés. Cette volonté de rechercher l'efficacité globale se résume dans la notion d’intégration énergétique. Le projet INTENSE va permettre de développer une méthodologie qui sera implantée au sein d'un outil informatique destiné aux concepteurs (bureaux d'études et architecte) et aux chercheurs développant par exemple de nouveaux systèmes de contrôle-commande.

    L’intégration énergétique des systèmes et de l’enveloppe du bâtiment est un problème d’optimisation multicritère extrêmement complexe qui n’a jamais été traité avec une approche aussi complète que celle envisagée dans le projet INTENSE :
    - Modélisation dynamique « fine » permettant de prendre en compte le comportement de l’ensemble des systèmes énergétiques et des compositions d’enveloppe du bâtiment.
    - Optimisation multicritère globale sur la durée de vie : ACV, confort (thermique et visuel), énergie et financier.
    Le nombre de combinaisons possibles est très important, entre les sources disponibles localement, les systèmes et les caractéristiques d’enveloppe envisageables. La méthode d’optimisation retenue est basée sur les algorithmes génétiques du fait de la difficulté de définir un optimum global. Comme de nombreuses configurations seront simulées sur de longues périodes, nous implémenterons des méthodes d’optimisation spécifiques faisant intervenir des modèles de substitution (krigeage) afin de réduire les temps de calcul. L'optimisation robuste permettant de traiter les incertitude sera par ailleurs abordée.



Rechercher un projet ANR