Option Signal Image du parcours SISEA du Master 2 EEA

UE4 – Concepts de traitement de l’information

Le premier cours de cette UE, intitulé Filtrage de Kalman et modèles de Markov cachés, propose une introduction au filtrage optimal en temps discret, c'est-à-dire au problème de l'estimation de l'état d'un système à partir d'un modèle a priori et de mesures bruitées. La notion de modèle a priori est illustrée par des exemples issus du domaine de la navigation, de la localisation et de la poursuite. Deux classes de modèles sont considérées, pour lesquelles il est possible de donner une solution exacte, calculable de façon récursive : (i) les systèmes linéaires gaussiens, et (ii) les chaînes de Markov à espace d'état fini. La mise en œuvre de ces différents algorithmes fait l'objet de deux séances de TP en MATLAB.

Le second cours, intitulé Optimisation, traite des problèmes d’optimisation sans et avec contraintes dans le cadre théorique de l’optimisation convexe et envisage leur résolution analytique ou au moyen d’algorithmes permettant d’obtenir des solutions numériques par des moyens informatiques.

Le dernier cours de cet UE est intitulé Détection-Estimation. La partie détection du cours a pour objectif de calculer le détecteur le plus approprié à une situation donnée et d’être capable d’estimer les performances de détection théoriquement et pratiquement. La partie estimation a pour objectif d’introduire les différentes notions de base liées aux estimateurs (fonction de coût, biais, erreur quadratique moyenne) ainsi que les outils permettant de quantifier leur qualité (Matrice d’information de Fischer, borne de Cramer-Rao).

UE5 - Méthodes pour le traitement de l'information et de la commande

Le premier cours de cette UE s’intitule Machine learning. Il traite de l’apprentissage de méthodes de reconnaissance de formes et de classification, classiques et avancées. Une première partie du cours présente en ensemble de méthodes qui va de techniques de classification de base (inférence statistique, approches de classification linéaire,…) à des méthodes plus avancées de classification supervisée (méthodes à noyaux,…) ou non supervisée (méthodes non paramétriques, …). Une deuxième partie du cours présente des techniques complémentaires, dont certaines sont issues de l’Intelligence Artificielle, et concernent par exemple des techniques de représentation de l’incertitude et du raisonnement ou de fusion d’informations, ou encore les réseaux de neurones. Plusieurs séances de TP encadrés concrétisent certains aspects du cours.

Le second cours, nommé Problèmes inverses, vise à montrer en partant d’un exemple issu de l’ingénierie biomédicale comment les lois de la physique permettent de modéliser les données observées et de définir une certaine classe de problèmes inverses. Malheureusement ces derniers sont souvent mal-posés et nécessitent d’être régularisés. Nous montrons dans ce cours comment interpréter et traduire mathématiquement certaines hypothèses émanant de la physique du problème afin de le régulariser. Enfin un ensemble de méthodes de résolution de problème inverse linéaire mal-posé est proposé, d’une part des méthodes déterministes (Tikhonov, LASSO), d’autre part des techniques probabilistes (MCMC, échantillonneur de Gibbs, algorithme de Metropolis-Hastings). Des séances de travaux pratiques sous MATLAB permettent d’illustrer ces méthodes dans le contexte de la localisation de sources cérébrales.

Le troisième module de cours s’intitule Ondelettes. Il traite des représentations en ondelettes et leurs liens avec l’analyse harmonique, l’approximation de signaux et les représentations temps-fréquence.

UE6 - Sciences de l'ingénieur (signal et image, systèmes intégrés, automatique)

Le premier cours de cette UE, intitulé traitement d’images et de séquences d’images, est une introduction au traitement d’images et de vidéos. L’objectif est de présenter les méthodes de base pour résoudre des problèmes de correction mais aussi de segmentation d’images et de séquences d’images.

Le second module de cette UE, intitulé Théorie de l’information et de la compression d’images, décrit les principes de la compression d'images et de vidéos et les méthodes associées. Il présente les principaux éléments de théorie de l’information et de codage de source, les principaux opérateurs de transformation du signal, de quantification, de prédiction, de codage entropique, d’estimation et de compensation de mouvement, et d’optimisation débit-distorsion. Il présente ensuite les principaux standards de compression des images et des vidéos, qui sont actuellement utilisés dans toutes les applications de la vie courante (télévision, vidéo à la demande, streaming, vidéo sur mobiles, etc.), et des solutions avancées pour de nouvelles modalités d’imagerie comme la vidéo multi-vue et 3D.

Le troisième cours se nomme Techniques de filtrage de signaux. Il vise à présenter et caractériser des observations à partir de modèles, analyser et filtrer des signaux (filtrage prédictif, optimal, adaptatif, en sous-bandes) en présence ou non de bruit, développer des algorithmes génériques d'estimation à partir d’observations.

UE7 - Traitement avancé en signal, image et synthèses

Cette UE offre un large panel de modules parmi lesquels les étudiants en choisiront quatre.

Le premier module, intitulé Modélisation géométrique et statistique, porte d’une part sur le traitement géométrique d’images/volumes 3D où l'étude locale et globale des courbes et surfaces de l'espace 3D est privilégiée. La reconnaissance de forme est alors liée à la projection d'une forme 3D dans un espace de description ayant peu de paramètres et à la recherche d'invariants décrivant localement ou globalement les objets 3D. Il est alors possible de définir des distances de forme de manière élégante. D’autre part, ce module revisite le problème de segmentation d’image mais cette fois en utilisant un formalisme bayésien. Dans ce cadre, l’utilisation de champs de Markov est étudiée. Différentes solutions algorithmiques telles que la méthode MCMC sont considérées. Le cours est illustré à l’aide d’exemples pratiques et d’exercices. Un TP sur la segmentation des tissus cérébraux d'une image IRM est également proposé.

Le second module proposé, nommé Recalage d’images médicales et GMCAO, vise à donner aux étudiants une vue d'ensemble des Gestes Médico-Chirurgicaux Assistés par Ordinateur (GMCAO). Un éclairage plus spécifique est apporté sur les composantes méthodologiques relevant de la vision par ordinateur et du recalage d’images médicales.

Le troisième module disponible s’intitule Traitement des contenus vidéo et nouvelles modalités. Il présente des outils mathématiques et des méthodes permettant l’enrichissement et l’exploitation de contenus vidéo pour améliorer l'expérience de l'utilisateur et offrir de nouveaux services. Il présente les différents modèles de caméras, les problèmes de capture multi-vues, de calibration de caméras, de géométrie projective et de rendu par l’image. Il poursuit en présentant les outils de régularisation d’images par diffusion, les différents types de méthodes d’inpainting d’image, de vidéo et de contenus multi-vues. Il présente également les différentes méthodes de super-résolution par l’exemple, représentations parcimonieuses et apprentissage. Il termine par une présentation de méthodes d’indexation et de structuration de vidéos, de reconnaissance d’actions et d'effets visuels en vidéo.

Le quatrième cours proposé est intitulé Vision robotique et asservissement visuel. Il présente les deux approches possibles pour commander les mouvements d'un robot à partir d'informations fournies par une caméra. La première repose sur une calibration fine et la localisation 3D des éléments du système. La seconde, dite d'asservissement visuel, consiste à injecter les informations visuelles en entrée d'une loi de commande en boucle fermée. La généricité des approches et leur fort potentiel applicatif seront illustrés à travers de nombreux exemples.

Le cinquième cours disponible se nomme Séparation aveugle de sources. La séparation de sources a pour but d’estimer des sources radio, acoustiques, physiologiques ou autres à partir d’un mélange linéaire ou non de ces dernières. L’adjectif aveugle caractérise l’absence de connaissance a priori sur lesdites sources d’intérêt. En guerre électronique, la séparation aveugle de sources est utilisée afin d’intercepter des communications ennemies. En audio, l’exemple du cocktail party montre comment à partir d’un ensemble de microphones il est possible d’isoler les conversations de plusieurs groupes de personnes parlant dans une même pièce. En ingénierie biomédicale, la séparation aveugle de sources permet de séparer l’activité cardiaque de la mère de celle du fœtus à partir de signaux électrocardiographiques (non-invasifs) enregistrés sur l’abdomen de la mère et de prévenir d’éventuelles maladies cardiaques du fœtus. Si l’Analyse en Composantes Indépendantes (ICA) a longtemps été l’un des standards en matière de séparation aveugle de sources, l’analyse tensorielle offre le grand intérêt de pouvoir traiter des données de faible dimension (par exemple, cas d’un faible nombre d’échantillons temporels à disposition). L’une des décompositions tensorielles phares, la décomposition canonique polyadique, est étudiée et son intérêt est illustré en localisation de sources de courant cérébrale lors d’une séance de travaux pratiques sous MATLAB.

Dans le cadre global de la conception des systèmes de commande ou de surveillance, la phase d'obtention de modèles dynamiques de processus est une étape importante. Ce sixième cours, intitulé Modélisation et identification, présente la démarche et les méthodes usuelles de modélisation paramétrique appliquées aux systèmes ou aux signaux : méthodes d'erreur de prédiction, variantes des moindres carrés, méthode du modèle, approches par sous-espace.

Enfin, un cours de communications numériques et un cours d’identification de modèles biomathématiques utilisés en électrophysiologie humaine sont également proposés aux étudiants.