2019


Retour à la vue des calendrier
Jeudi 7 Février
Heure: 12:15 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Stochastic Majorize-Minimize Subspace Algorithm for Large Scale Data Processing
Description: Emilie Chouzenoux Stochastic approximation techniques play a prominent role in solving many large scale problems encountered in machine learning or image/signal processing. In these contexts, the statistics of the data are often unknown a priori or their direct computation is too intensive, and they have thus to be estimated online from the observations. For batch optimization of an objective function being the sum of a data fidelity term and a penalization (e.g. a sparsity promoting function), Majorize-Minimize (MM) methods have recently attracted much interest since they are fast, highly flexible, and effective in ensuring convergence. The goal of this talk is to show how these methods can be successfully extended to the case when the data fidelity term corresponds to a least squares criterion and the cost function is replaced by a sequence of stochastic approximations of it. In this context, we propose an online version of an MM subspace algorithm and we establish its convergence by using suitable probabilistic tools. We also provide new results on the convergence rate of such kind of algorithm. Numerical results illustrate the good practical performance of the proposed algorithm associated with a memory gradient subspace, when applied to both non-adaptive and adaptive linear system identification scenarios.
Lundi 11 Février
Heure: 14:00 - 16:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Review of neural automatic summarization of conversations for a medical chatbot
Description: Jessica Lopez Espejel Conversation analysis plays an important role in the development of simulation devices for training health professionals (doctors, nurses). The goal of the thesis is to develop an original automatic summarization method for medical conversations between a patient and a health professional based on recent convolutional and recurrent neural summarization advances. The proposed method should be adapted to the specific problems of summarizing dialogues (and trained with abundant data from medical conversations between doctor and patients). The hypothesis is that pertinent blocks of dialogue might be extracted by tagging medical topics to dialog blocks and detecting topic evolution through deep learning.
Mardi 12 Février
Heure: 12:15 - 13:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Méthodes pour la résolution de très grands problèmes combinatoires stochastiques. Application à un problème industriel d'EDF.
Description: Rodolphe Griset Cette exposé s'intéresse à la résolution de très grands problèmes d'optimisation combinatoire stochastique. Les recherches sont appliquées au problème de planification des arrêts pour rechargement des centrales nucléaires. Compte-tenu de la part prépondérante de celles-ci dans le mix-électrique, ce problème structure fortement la chaîne de management d’énergie d'EDF. Une première partie propose une formulation étendue à deux niveaux dans laquelle les décisions de premier niveau fixent les plannings d’arrêt et des profils de production des centrales, et celles de second niveau évaluent le coût de satisfaction de la demande associé. Cette formulation permet la résolution à l'optimum d'instances industrielles déterministes par un solveur en PLNE. Dans le cas stochastique, une telle résolution directe du problème n'est plus possible. Nous proposons une formulation permettant d’en résoudre la relaxation linéaire par génération de colonnes et de coupes, correspondant respectivement aux reformulations de Danzig-Wolfe du premier niveau et de Benders du second. Une phase heuristique permet ensuite de déterminer des solutions entières de bonne qualité pour des instances, jusqu'à une cinquantaine de scénarios représentatifs de l’incertitude sur les données. L’apport de l’approche est estimé en utilisant les outils industriels exploités par EDF pour évaluer les plannings. Une seconde partie porte sur l'intégration de méthodes d'optimisation robuste pour la prise en compte d’aléas sur la disponibilité des centrales. Nous nous plaçons dans un cadre où les recours possibles sur les dates d'arrêts ne sont pas exercés. Nous comparons des méthodes bi-objectif et probabiliste permettant de rendre le planning robuste pour les contraintes opérationnelles dont la relaxation est envisageable. Pour les autres, nous proposons une méthode basée sur un budget d’incertitude. Cette méthode permet de renforcer la stabilité du planning en limitant les besoins de réorganisation futurs. La prise en compte d’une loi de probabilité de l’aléa permet d’affiner le contrôle du prix de cette robustesse.
Lundi 18 Février
Heure: 14:00 - 16:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Sémantique distributionnelle compositionnelle
Description: François Levy
Mardi 19 Février
Heure: 12:30 - 14:00
Lieu: Salle A303, bâtiment A, Université de Villetaneuse
Résumé: Titre bientôt disponible
Description: Amaury Pouly
Jeudi 28 Février
Heure: 12:15 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Apprentissage statistique dans un contexte décentralisé et applications à la vision par ordinateur
Description: David Picard L'apprentissage statistique est de nos jours incontournable dans un certain nombre de tâches complexes, notamment dans le traitement des données multimédia comme la vision. Pour gagner en précision, des modèles de plus en plus complexes sont entraînés sur des volumes de données de plus en plus gros. Cependant, la répartition naturelle des données auprès des capteurs qui les ont crées laisse à penser qu'il serait préférable d'apprendre ces modèles sans collecter les données d'apprentissage auprès d'un calculateur central. Nous présentons dans cet exposé un paradigme d'apprentissage décentralisé asynchrone pour répondre à ce problème. Nous considérons le cas ou plusieurs calculateurs optimisent un modèle statistique à l'aide de données locales et coopèrent afin d'obtenir un modèle consensus. Nous montrons comment transposer des algorithmes d'apprentissage connus (k-means, PCA, SVM, deep learning) à ce paradigme, ainsi que des preuves de leur équivalence avec les versions centralisées. Enfin, nous montrons plusieurs exemples d'applications de ces modèles à des tâches de vision par ordinateur.
Lundi 11 Mars
Heure: 14:00 - 15:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Structure Prediction Energy Network (SPEN) using Dual Decomposition on Dependency Parsing
Description: Xudong ZHANG Dependency Parsing is one of the basic tasks in the field of Natural Language Processing (NLP). The goal is to find whether there exist a strong relationship between different words in a sentence. It can be used as the basic step of many NLP systems like question answering system. Solving a dependency parsing problem can be realized by a energy based network with the output of the neural network as a scalar (energy). The goal is to find the most compatible structure (a graph) with the input sentence and the most compatible structure is supposed to give the lowest energy for the neural network. As the structure of the sentence should be a tree (one root, every word has and only has one pa rent, no circle), to simplify the problem, people always construct a linear function corresponding to the structure that we want to find, i.e. we suppose different arcs are independent. However, this method may limit the capacity of the system to describe more complex relations. In this project, inspired by the idea of Structure Prediction Energy Network (SPEN), we construct a new neural network which is composed of two parts, i.e. local energy part and global energy part. We showed that it is possible to solve the problem with dual decomposition when we have a convex (non-linear) function for the global energy part together with the linear local energy part.
As one part of my Phd thesis, this work is still ongoing.
Jeudi 4 Avril
Heure: 13:30 - 14:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Apprentissage automatique à partir de données complexes et dynamiques: Application aux données textuelles
Description: Parisa RASTIN Les données actuelles sont de plus en plus variées et complexes et il est en général nécessaire d’adapter les algorithmes d’analyse à chaque type de description des données. Les algorithmes d’apprentissage devraient cependant pouvoir être fonctionnels quel que soit le type des données et la métrique choisie. Nous présentons dans cet exposé un algorithme de clustering relationnel basée sur le système de Coordonnées Barycentriques pour homogénéiser la représentation des objets et des prototypes et traiter de grands ensembles de données complexes. Dans le système de Coordonnées Barycentriques, l’espace de représentation est défini par un ensemble unique de points de support choisis parmi les objets de la base d'apprentissage. La définition d’un prototype correspond au calcul d’un objet dans l’espace barycentrique. À partir de ces approches, nous proposons un algorithme d'apprentissage basé sur un réseau de neurones artificiel défini dans l'espace barycentrique, adapté aux flux de données textuelles et permettant un suivit dynamique de l'évolution des données au cours du temps. Nous présenterons une applications concrètes sur l’extraction de domaines d’intérêt extraits d’URLS à partir de trace de navigation en ligne.
Mercredi 17 Avril
Heure: 14:30 - 15:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Résumé de texte translingue par compression
Description: José Manuel Torres-Moreno Le Résumé Translingue de Textes (RTT) vise à générer un résumé dans une langue autre que le document source.

Plus précisément, le RTT consiste à analyser un document dans une langue source pour en extraire sa signification, puis à générer un résumé court, informatif et correct dans une langue cible.

Ce processus peut être divisé en deux processus principaux : le résumé et la traduction. Processus souvent antagonistes.

Nous avons développé un cadré expérimentale pour générer des résumés translingues de documents en anglais, français, portugais, espagnol vers {anglais, français}.

Nous avons utilisé des applications du TALN (résumé par extraction, similarité de phrases, compression de phrases et fusion multi-phrases) et des approches neuronales pour construire nos modèles de RTT.

Cette présentation sera ciblée sur les techniques et les résultats obtenus lors de nos expériences.
Jeudi 18 Avril
Heure: 12:15 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Analyse de sentiment sur les réseaux sociaux
Description: Mohamed Quafafou