|
|
Intranet | ENT | FAQ | Login | ![]() |
![]() |
|
Laboratoire XLIM UMR CNRS 7252 Bât. H1 - SP2MI 11 Bd Marie et Pierre Curie TSA 41123 86073 Poitiers Cedex 9 GPS : 86360 Futuroscope Chasseneuil |
Ingénieur de Recherche en calcul et stockage scientifiques affecté au Laboratoire XLIM sur le site de Poitiers, je travaille sur divers projets de recherche des axes ASALI et SRI et plus particulièrement pour les quatre équipes du site de Poitiers, à savoir ICONES, IG, RUBIH et SYCOMOR.
Je suis responsable du pôle informatique du laboratoire, assure la maintenance des serveurs et des calculateurs CPU et GPU du laboratoire. Je conseille les chercheurs sur les algorithmes à utiliser ou produire et je propose des scripts d'utilisation de ces calculateurs. J'assure également l'assistance à l'utilisation des calculateurs universitaires de la Nouvelle-Aquitaine pour mon laboratoire et la maintenance et l'assistance au calculateur poitevin Jarvis à l'ensemble de la communauté universitaire néo-aquitaine.
Je travaille également au sein de la plateforme PREMISS sur l'utilisation systématique d'une forge logicielle GITLAB, l'utilisation d'outils d'intégration continue / déploiement continu et la promotion de la science ouverte (ouverture des données, ouverture des codes sources et logiciels).
J'ai intégré le guichet de la donnée de l'Université de Poitiers pour accélérer cette ouverture des données et des codes. A ce titre, j'ai appris à rédiger des plans de gestion des données et des logiciels et contribue à la promotion de la science ouverte à l'université. J'ai également proposé un guide de dépôt de code source sur une forge avec choix éclairé de la licence à apposer.
Je développe des logiciels spécifiques pour le laboratoire, utilisés par le personnel administratif et les responsables des équipes (applications de comptabilité, de gestion administrative, de gestion du matériel informatique, des services web en php).
Enfin, je développe des briques logicielles pour la plateforme robotisée d'acquisition et d'analyse de données multispectrales utilisée en recherche par diverses équipes du laboratoire (pilotage / commande / transmission d'images sans fil / traitement et analyse d'images / reconstruction géométrique et photométrique).
Développement d'une application d'analyse de photographies de vernis sur les ongles afin d'extraire automatiquement les contours vernis sous forme d'un masque venant couvrir par transparence l'ongle verni, des statistiques sur la couverture et l'uniformité chromatique de la surface vernie.
Ces statistiques moyennes, par panéliste et par verni, sur la couverture et l'uniformité chromatique pour chaque campagne d'acquisition ont été validées par un expert de chez Chanel.
Le logiciel est utilisé quotidiennement par l'experte en évaluation de tenue des vernis chez Chanel. Pour cela, nous avons dû proposer un protocole d'acquisition permettant de calibrer l'éclairage, une méthode d'analyse d'image entièrement informatisée qui s'adapte aux couleurs de vernis utilisés, aux couleurs de peau des panelistes afin de détecter automatiquement les écailles de verni avec précision et une sortie de résultats à la fois visuels et statistiques afin d'être injectés dans un logiciel de contrôle qualité.
Développement d'un système complet de navigation virtuelle dans la station spatiale européenne avec visualisation interactive de planches de bandes dessinées sur l’aventure de Thomas Pesquet : un dispositif matériel de pilotage d’une borne d’arcade a été intégré via un rasberry-pi pour donner un effet rétro-gaming au démonstrateur livré (demande du client).
Des tests de montée en charge ont été effectués pour assurer la robustesse du système. Ce travail a ensuite été intégré dans l’exposition itinérante « C’est arrivé demain » afin d’être dévoilée au grand public en 2018 par la ville de Poitiers. Actuellement, ce démonstrateur est toujours exploité dans des écoles et des centres de loisir.
Simplification automatique du maillage d'un cockpit d'avion et étiquetage des différents éléments constituant l'appareil (fonctions de réflectance bidirectionnelle associées à l'étiquetage) afin de pouvoir lancer des calculs de propagation d'ondes lumineuses à l'intérieur du cockpit et prédire la qualité du signal reçu par les casques audio des pilotes (technologie LiFi).
La simplification de maillage a nécessité une réflexion en amont afin de prédire quelles parties peuvent être simplifiées sans trop de pertes et quelles parties devaient être conservées plus finement. L'étiquetage est utilisé pour définir automatiquement les propriétés de réflectance des différents matériaux composant le cockpit afin d'effectuer des calculs de simulation d'éclairage qui prennent en compte les interactions lumineuses avec les différentes surfaces.
Elaboration d’une solution matérielle et logicielle pour détecter les défauts de rivetage des portes d’avion avec une précision de 10 microns en 0.5 seconde / image (temps d'acquisition + temps de traitement). Une étude préalable, validée par des simulations optiques via blender, a permis de commander le matériel optique (objectifs bitélécentriques) en adéquation avec la précision demandée par le client (erreur inférieure à 50 microns) puis un travail de coordination avec l’entreprise AeroSpline a permis de faire fabriquer un dispositif de montage de la caméra et de l’optique laser qui soit adaptable sur le bras du robot de l’entreprise.
La partie logicielle consiste en une analyse précise des déformations de la grille laser projetée sur la surface (lumière structurée) afin d'estimer une carte de hauteur à partir de l'image en 200ms sur une machine fixe (une optimisation et une parallélisation fortes des algorithmes a été nécessaire).
Elaboration d’une solution matérielle et logicielle pour mesurer la déformation de la bande de roulement routière en temps réel par une caméra embarquée dans une voiture roulant à vitesse modérée. Là encore, il a fallu effectuer une étude de faisabilité en amont par simulations optiques sous blender afin de choisir la meilleure configuration possible de l'éclairage et éviter au maximum les reflets spéculaires des graviers de la route.
La partie logicielle est à nouveau une analyse de la lumière structurée afin d'estimer une carte de hauteur représentant le relief de la route.
Elaboration d'une solution de contrôle qualité sur une armoire électrique d'avion. Un robot autonome vient prendre une série de photographies des coeurs électriques puis une reconstruction de l'armoire complète est effectuée avant analyse. Un schéma de l'armoire électrique est fourni en entrée de l'application afin de pouvoir connaitre la puissance de chaque fusible en place. Le logiciel d'OCR open source tesseract est utilisé pour extraire les étiquettes sur chaque fusible.
L'application finale affiche l'emplacement précis de chaque défaut détecté sur l'armoire analysée : fusibles de mauvais calibres, fusibles ou étiquettes absents, etc.
Amélioration du logiciel open source RootNav 2 avec prise en compte d'images segmentées de racines de pois. En effet, le logiciel RootNav 2 utilise l'apprentissage profond pour segmenter automatiquement des racines de plantes à partir d'images de ces racines évoluant dans des rhizoboxes (boites de pétri avec parois transparentes où les racines évoluent dans un substrat de type gel transparent). Mais comme tout apprentissage profond, il faut une phase d'entrainement avec des données de terrain pour valider le modèle d'apprentissage. Avec l'aide de stagiaires, nous avons segmenté semi-automatiquement des dizaines de racines de pois avec le logiciel SmartRoot puis inséré ces données étiquetées dans RootNav 2 pour l'entrainer avec ces nouvelles données. De nouvelles images de racines de pois (de diverses espèces, sous diverses conditions d'alimentation / de stress) mais évoluant toujours dans des rhizoboxes peuvent à présent être segmentées automatiquement avec RootNav2.
Ce développement a été effectué en collaboration avec l'équipe SEVE du laboratoire EBI de l'Université de Poitiers et est repris actuellement par un ingénieur de recherche nouvellement intégré au laboratoire EBI.
Mes travaux de thèse ont pour objectif d'intégrer des objets à base d'images dans des environnements virtuels. La difficulté de cet exercice est de prendre en compte les problèmes de profondeur de l'objet réel, les ombres portées sur les autres objets de la scène, les ombres auto-portées et les changements d'éclairage. Ces problèmes sont très proches de ceux étudiés dans les domaines de la réalité augmentée et de la vision en robotique, avec notamment l'utilisation de techniques de calibrage de caméra et de géométrie projective.
Une première étape concerne l'acquisition des images permettant une représentation efficace des objets traités. Elle est suivie d'une étape de reconstruction géométrique. L'estimation des caractéristiques des sources lumineuses est réalisée conjointement avec celle des positions et orientations des sources lumineuses. Nous utilisons les données reconstruites pour visualiser les objets avec de nouvelles conditions d'illumination. La version actuelle permet de générer de nouvelles images en quelques secondes avec une méthode de lancer de rayons.
Pour plus de détails, visitez le site web du projet : http://xlim-sic.labo.univ-poitiers.fr/projets/ibr-integration/
Mes travaux de post-doctorat au laboratoire IRISA de Rennes m'ont permis de développer des applications interactives sur écrans auto-stéréoscopiques multivues. Ces écrans 3D permettent d'augmenter l'immersion de l'utilisateur en affichant un environnement en relief sans utilisation d'équipement spécifique comme les lunettes polarisantes.
J'ai également travaillé sur une application de rendu-basé image permettant de naviguer dans un environnement urbain uniquement à partir d'une collection d'images (reconstruction d'un volume englobant pour chaque image et fusion de modèles 3D entre les différentes images : cette application reprenait le principe de Tour into the picture).
+ Systèmes d'acquisition :
+ Traitement d'images couleurs :
+ Compression et visualisation de Light Fields :
+ Construction de panoramas :
+ Vision par ordinateur :
+ Reconstruction géométrique à partir d'une séquence d'images :
+ Estimation de sources lumineuses multiples,
+ Récupération des propriétés de réflectance (brdfs de type Phong) :
+ Rééclairage d'objets réels :
+ Visualisation OpenGL interactive sur écrans auto-stéréoscopiques multivues :
+ Reconstruction géométrique à partir d'une seule image (tour into the picture) :
+ Acquisition et analyse de données via eye-tracker,
+ Acquisition et analyse de surfaces en terme :
Cette section répertorie des travaux en cours, non finalisés par manque de temps... mais je ne désespère pas de pouvoir les mener à terme un jour...
Application sur smartphone pour vérifier le montage correct de coffrets électriques à partir de l'acquisition d'une simple image via un smartphone (base de données embarquée, base de donnée synchronisée sur un serveur via une API REST, mode administrateur pour construire des schémas de montage, mode utilisateur final pour vérifier les tableaux d'abonnés par rapport à un schéma, analyse statistique). L'idée est de remplacer la phase manuelle de contrôle de l'assemblage par un processus automatisé plus fiable et plus rapide. Les parties Base de données et synchronisation via API REST sont opérationnelles, le mode Administrateur est en cours de finalisation et il reste encore l'IHM de l'utilisateur final à concevoir.
Application sur pc pour analyser le réseau racinaire de plantes à partir d'images de rhizoboxes ou de plantes poussant dans de l'eau. Chaque image est analysée indépendamment pour en extraire les racines principales, les racines latérales et les poils absorbants. Plutôt que de repartir de rien, nous nous sommes appuyés sur le logiciel open source "SmartRoot" (plugin dans ImageJ) et avons ajouté un assistant qui guide l'utilisateur (généralement un botaniste) sur les paramètres qu'il doit saisir afin de simplifier et améliorer la segmentation automatique des images, mais également l'étiquetage des racines et la sortie de statistiques sur le réseau racinaire complet.
L'application est développée en collaboration avec le laboratoire d'Écologie et Biologie des Interactions (EBI) de l'Université de Poitiers afin qu'elle corresponde aux attentes des utilisateurs finaux. La partie IHM est bien avancée, je travaille actuellement sur la partie "Traitement d'images" pour améliorer les segmentations automatiques.
Pour plus de détails : SmartRootWizard et le Wiki de SmartRootWizard.
Application sur smartphone pour simuler la gestion d'un diabète de type I (insulino-dépendant) par l'utilisateur du smartphone. Cette application de type "serious game" pourrait être utilisée pour sensibiliser le personnel infirmier à la gestion d'un diabète au quotidien, mais également par de nouveaux diabétiques pour mieux comprendre les effets de l'insuline, des aliments et de l'activité sportive sur l'évolution du taux de glucose dans le sang. L'idée est de proposer plusieurs niveaux de difficultés et de diffuser des explications sur les effets de chaque élément tout au long de l'aventure. Cette application embarque des algorithmes d'estimation de l'évolution du taux de glucose en fonction de divers facteurs. La base de données et les algorithmes de calcul et gestion du taux de sucre sont opérationnels et une maquette d'IHM a été conçue. Il reste encore à concevoir l'application sur smartphone et implanter une API REST de synchronisation des données.
Le projet MEDIA – IRM 3D, déposé en 2020, est l'acronyme de MEdical Data Intelligent Analysis – Interpretation, Reconstruction and Manipulation in 3D.
J'ai participé à 2 des 4 volets :
L'idée générale de ce projet est de développer de nouvelles méthodes d’analyse des tumeurs cérébrales primitives ou des gliomes par biopsie virtuelle à partir des données issues du nouvel IRM 7 Tesla du CHU de Poitiers. La visualisation multi-modale est une forte valeur ajoutée pour les médecins afin de synthétiser de manière visuelle des informations provenant de diverses acquisitions, de faire des recoupements plus facilement entre les différentes données et ainsi de poser des diagnostics plus fiables de certaines maladies.
J'ai co-encadré la thèse sur la Visualisation multi-modale de l’ensemble des séquences issues de l’IRM, soutenue en novembre 2024.
Ces travaux ont mis en corrélation les images issues de la perfusion, la diffusion et la spectroscopie afin d'améliorer la précision des reconstructions 3D et de simplifier la visualisation de cette masse d'informations. La mise en corrélation de ces différentes modalités facilite le diagnostic final établi par le médecin.
Les travaux sur les deux volets présentés ci-dessus ont été développés dans le logiciel open source 3D Slicer. A présent, ces développements ont besoin d'être consolidés dans une architecture propice à leur publication sous forme de plugins dans 3D Slicer afin de pouvoir faire bénéficier la communauté autour de l'imagerie médicale de ces dernières avancées.
Les applications cliniques sont nombreuses. Par exemple, en pathologie tumorale, la détection des fibres partiellement sectionnées permettra au neurochirurgien d’apprécier les faisceaux de fibres envahis, de réaliser un planning préopératoire des zones à préserver afin de ne pas sectionner les fibres intactes pendant l'exérèse tumorale. Pour cela, il suffit de corréler les données anatomiques et métaboliques issues de différents modes d’acquisition (imagerie de perfusion, de diffusion et spectroscopie) en repartant des tenseurs de diffusion calculés dans les voxels de la tumeur et en parcourant ce voisinage dans les directions de diffusion privilégiées afin d’afficher les faisceaux de fibres impactés ou non.
L'idée générale de ce projet, déposé en 2023, est de comprendre et mesurer l’apparence visuelle et le rendu esthétique des « objets » scéniques sous un éclairage avec des LEDs.
Pour cela, nous comparons le rendu de différents tissus éclairés avec diverses sources lumineuses comme des projecteurs halogènes et des projecteurs LED de différentes marques. Avec le technicien d'expérimentation du laboratoire, nous avons conçu deux panneaux roulants motorisés permettant de présenter une dizaine de tissus chacuns sur scène. Le dispositif complet est détaillé sur cette page : Wiki de USB to Open DMX Controller. Les 2 panneaux sont éclairés par deux projecteurs différents afin de pouvoir comparer un même tissu éclairé par deux sources lumineuses différentes. En amont de chaque présentation, un travail de calibration de la lumière est nécessaire (puissance lumineuse, température) afin de rendre les deux projections comparables.
J'ai développé une application permettant de commander les éclairages et le déroulement des différents tissus en DMX afin de pouvoir tout automatiser et scénariser les présentations. J'ai conçu ce logiciel pour qu'il soit utilisable par un non informaticien : pas besoin de coder un nouveau matériel / un nouveau projet / un nouveau scénario, tout se fait par une description dans un fichier texte au format TOML. Le logiciel va scanner ces 3 fichiers et construire automatiquement l'interface de pilotage avec une partie automatique (le scénario) et une partie manuelle (le projet qui décrit la liste des matériels à commander). Le logiciel open source est disponible ici : USB to Open DMX Controller.
J'utilise également le logiciel Wooclap pour pouvoir enregistrer sur smartphone les réponses formulées par les spectateurs dans les salles de spectacle où nous allons diffuser ces objets scéniques. Une première présentation du prototype a été effectuée à la conférence SHOWLIGHT 2025. Un partenariat avec le Méta va nous permettre d'obtenir des réponses dans de vraies conditions : les salles de spectacles poitevines.
Ces résultats psychovisuels seront ensuite comparés à des acquisitions des différents tissus in-situ à l'aide de caméras multi et hyper spectrales afin de connaître précisément la réflectance de chaque couleur de chaque tissu et de pouvoir déterminer quelles bandes spectrales sont mal représentées dans certains projecteurs et si cela peut entrainer une mauvaise perception des détails par le spectateur (corrélation ou non avec les résultats psychovisuels).
A l'Université de Poitiers :
A l'Université de Poitiers :
[1] Shape from Silhouette: Image Pixels for Marching Cubes
Mercier B., Meneveaux D.
The 13th International Conference in Central Europe on Computer Graphics, Visualization and ComputerVision (Journal of WSCG'05), Volume 13, pages 112--118, January 31 - February 04, 2005, Plzen (Czech Republic) - February 2005
[1] Joint Estimation of Multiple Light Sources and Reflectance from Images
Mercier B., Meneveaux D.
International Conference on Computer Vision and Graphics (ICCVG'04), September 22-24, 2004, Warsaw (Poland) - September 2004
[2] Estimation conjointe de sources lumineuses et de propriétés photométriques à partir d'images
Mercier B., Meneveaux D.
Journées 2004 du Groupe de Travail Rendu et Visualisation (GDR ALP), pages 47--56, 8-9 Avril 2004, Poitiers (France) - April 2004
[1] Lumigraphes et reconstruction géométrique
Mercier B., Meneveaux D.
16èmes Journées de l'Association Française d'Informatique Graphique (AFIG'03), pages 241--252, 3-5 Décembre 2003, Saint Denis (France) - December 2003
[1] Reconstruction et analyse automatiques pour le rééclairage d'objets basés-image
Mercier B.
Thèse de l'Université de Poitiers, Laboratoire SIC, Ceci est une pré-version du manuscrit. La soutenance est prévue le 24 octobre 2006. - October 2006
[1] Extraction de sources lumineuses en rendu basé-image
Mercier B.
DEA de l'Université de Poitiers - Juillet 2002
Crédits et mentions légales | - Dernière mise à jour le 30 mars 2022 - | ![]() |