Activités de recherche

Les problèmes de classification supervisé ou non-supervisé nécessitent d’approcher des fonctions dans des espaces de très grande dimension. Eviter la malédiction de la dimensionnalité ouvre de nombreuses questions en statistiques, probabilités, analyse harmonique et géométrie. La malédiction de la dimensionalité, même pour des données structurées sous la forme de vecteurs dans l’espace réel de dimension d, rend très difficile l’approximation ou la classification de ces données. 

En théorie d’approximation conventionnelle la construction des opérateurs d’approximation ou de discrimination est basée sur la notion de voisinage. En très grande dimension, tous les éventuels voisins d’un point d’intérêt sont très éloignés. Il est donc nécessaire de penser à des opérateurs d’approximations non-conventionnels, tels que les réseaux de neurones qui sont des opérateurs d’approximations universels. 

Ainsi, ma recherche se situe à l’intersection de l’Informatique, des Mathématiques Appliquées et des Sciences de l’Ingénieur et porte essentiellement sur les domaines ci-dessous décrits par ordre antéchronologique :

1. approches quantiques en apprentissage non-supervisé de représentations de données en très grande dimension.

2. clustering multi-sources et hétérogènes qui inclut entre autre mes travaux sur le clustering collaboratif et multi-vue.

3. modélisation de données évolutives en particulier les problèmes de l’échantillonnage irrégulier des fonctions de plusieurs variables 

4. apprentissage non-supervisé dans le cadre de la théorie du transport optimal

5. apprentisssage de représentations hiérarchiques de données en très grande dimension se situant sur des variétés régulières par morceaux.

6. apprentisssage de représentations de données en très grande dimension et leurs applications, à savoir : la segmentation/compression/clustering et le débruitage/détection des "outliers".