Détection automatIque des SaillanceS du point de vue des Opérateurs et Compression Intelligente des vidéos de dronEs – DISSOCIE
La surveillance par des drones (civils et/ou militaires) présente des enjeux majeurs tant des points de vue défense (e.g., surveillance de zones sensibles, de zones de conflits, de zones de guerre, de frontières, ...) que sécurité et environnement (e.g., surveillance de la sécurité urbaine, des feux de forêt, ...). A titre d’exemple, la France et la Grande-Bretagne vont investir "plus de 2 milliards d'euros" dans un programme commun de fabrication de drones de combat opérationnels, capable à l'horizon 2030 d'effectuer notamment des missions d'observation et de surveillance, d'identifier des cibles et d'effectuer des frappes. Néanmoins, les missions d'observation et de surveillance, où il s’agit d'identifier des zones saillantes, sont actuellement exécutées par des opérateurs humains qui n’ont pas la capacité à pleinement et efficacement exploiter l’intégralité des vidéos de drone disponibles. La science et la technologie de l’étude oculométrique, de la modélisation de l’attention visuelle humaine, des modèles d’opérateur humain, et de la compression intelligente, ouvrent alors de nouvelles possibilités pour répondre à ces enjeux.
Dans ce contexte, le projet DISSOCIE vise à développer des modèles computationnels de l’opérateur automatique et de l’opérateur semi-automatique capables de détecter des zones saillantes du point de vue de l’opérateur humain, en considérant les caractéristiques “bas-niveau” du contenu saillant des videos, l’information contextuelle géo-temporellement localisée, et l’expertise et les stratégies de détection des opérateurs humains. L’apprentissage automatique (machine learning) peut être utilisé à différents niveaux de cette modélisation. Le nouveau standard de compression vidéo HEVC et le codage scalable seront également exploités dans ce projet pour améliorer l’efficacité de la relecture des experts. L’originalité du projet DISSOCIE réside dans une approche innovante et conjointe de ces verrous, en se fondant sur la complémentarité et le renforcement des expertises scientifiques réunies par le consortium : notamment, l’analyse des mouvements oculaires, la prédiction de fixation visuelle, la modélisation de l’attention visuelle, la détection et la segmentation des objets saillants, la modélisation des observateurs humains et la compression des vidéos. Le projet se structure autour de quatre tâches principales : construction d'une vérité de terrain (Tâche T1), développement des modèles et algorithmes de saillance géo-temporellement localisée (Tâche T2), modélisation de l’opérateur via des techniques de “machine learning” et mise en commun avec la saillance géo-temporellement localisée (Tâche T3), compression intelligente basée sur la saillance et insertion des métadonnées (Tâche T4).
Le projet DISSOCIE, à travers un consortium associant 3 partenaires académiques (IETR/VADDER, IRISA/PERCEPT, LS2N/IPI), s’inscrit dans une démarche de recherche finalisée (TRL visé de niveau 4) associée à la fois à une valorisation académique (production scientifique) et à un réel intérêt pour les équipes de drone de la défense : apporter du confort à l’action d’observation militaire et réduire l’erreur humaine ; amplifier l’efficacité des opérations militaires par une meilleure détection ; favoriser une meilleur gestion du potentiel humain des armées fortement sollicité durant les périodes à forte menaces terroristes et dans le contexte actuel d'État d’urgence.
Coordination du projet
Lu ZHANG (Institut d'électronique et de télécommunications de Rennes)
L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.
Partenaire
IRISA Institut de recherche en informatique et systèmes aléatoires
LS2N Laboratoire des Sciences du Numérique de Nantes
IETR Institut d'électronique et de télécommunications de Rennes
Aide de l'ANR 298 809 euros
Début et durée du projet scientifique :
décembre 2017
- 36 Mois