Jeudi 7 Février
Heure: |
12:15 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Stochastic Majorize-Minimize Subspace Algorithm for Large Scale Data Processing |
Description: |
Emilie Chouzenoux Stochastic approximation techniques play a prominent role in solving many large scale problems encountered in machine learning or image/signal processing. In these contexts, the statistics of the data are often unknown a priori or their direct computation is too intensive, and they have thus to be estimated online from the observations. For batch optimization of an objective function being the sum of a data fidelity term and a penalization (e.g. a sparsity promoting function), Majorize-Minimize (MM) methods have recently attracted much interest since they are fast, highly flexible, and effective in ensuring convergence. The goal of this talk is to show how these methods can be successfully extended to the case when the data fidelity term corresponds to a least squares criterion and the cost function is replaced by a sequence of stochastic approximations of it. In this context, we propose an online version of an MM subspace algorithm and we establish its convergence by using suitable probabilistic tools. We also provide new results on the convergence rate of such kind of algorithm. Numerical results illustrate the good practical performance of the proposed algorithm associated with a memory gradient subspace, when applied to both non-adaptive and adaptive linear system identification scenarios. |
Lundi 11 Février
Heure: |
14:00 - 16:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Review of neural automatic summarization of conversations for a medical chatbot |
Description: |
Jessica Lopez Espejel Conversation analysis plays an important role in the development of simulation devices for training health professionals (doctors, nurses). The goal of the thesis is to develop an original automatic summarization method for medical conversations between a patient and a health professional based on recent convolutional and recurrent neural summarization advances. The proposed method should be adapted to the specific problems of summarizing dialogues (and trained with abundant data from medical conversations between doctor and patients). The hypothesis is that pertinent blocks of dialogue might be extracted by tagging medical topics to dialog blocks and detecting topic evolution through deep learning. |
Mardi 12 Février
Heure: |
12:15 - 13:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Méthodes pour la résolution de très grands problèmes combinatoires stochastiques. Application à un problème industriel d'EDF. |
Description: |
Rodolphe Griset Cette exposé s'intéresse à la résolution de très grands problèmes d'optimisation combinatoire stochastique. Les recherches sont appliquées au problème de planification des arrêts pour rechargement des centrales nucléaires. Compte-tenu de la part prépondérante de celles-ci dans le mix-électrique, ce problème structure fortement la chaîne de management dénergie d'EDF. Une première partie propose une formulation étendue à deux niveaux dans laquelle les décisions de premier niveau fixent les plannings darrêt et des profils de production des centrales, et celles de second niveau évaluent le coût de satisfaction de la demande associé. Cette formulation permet la résolution à l'optimum d'instances industrielles déterministes par un solveur en PLNE. Dans le cas stochastique, une telle résolution directe du problème n'est plus possible. Nous proposons une formulation permettant den résoudre la relaxation linéaire par génération de colonnes et de coupes, correspondant respectivement aux reformulations de Danzig-Wolfe du premier niveau et de Benders du second. Une phase heuristique permet ensuite de déterminer des solutions entières de bonne qualité pour des instances, jusqu'à une cinquantaine de scénarios représentatifs de lincertitude sur les données. Lapport de lapproche est estimé en utilisant les outils industriels exploités par EDF pour évaluer les plannings. Une seconde partie porte sur l'intégration de méthodes d'optimisation robuste pour la prise en compte daléas sur la disponibilité des centrales. Nous nous plaçons dans un cadre où les recours possibles sur les dates d'arrêts ne sont pas exercés. Nous comparons des méthodes bi-objectif et probabiliste permettant de rendre le planning robuste pour les contraintes opérationnelles dont la relaxation est envisageable. Pour les autres, nous proposons une méthode basée sur un budget dincertitude. Cette méthode permet de renforcer la stabilité du planning en limitant les besoins de réorganisation futurs. La prise en compte dune loi de probabilité de laléa permet daffiner le contrôle du prix de cette robustesse. |
Lundi 18 Février
Heure: |
14:00 - 16:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Sémantique distributionnelle compositionnelle |
Description: |
François Levy |
Mardi 19 Février
Heure: |
12:30 - 14:00 |
Lieu: |
Salle A303, bâtiment A, Université de Villetaneuse |
Résumé: |
Titre bientôt disponible |
Description: |
Amaury Pouly |
Jeudi 28 Février
Heure: |
12:15 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Apprentissage statistique dans un contexte décentralisé et applications à la vision par ordinateur |
Description: |
David Picard L'apprentissage statistique est de nos jours incontournable dans un certain nombre de tâches complexes, notamment dans le traitement des données multimédia comme la vision. Pour gagner en précision, des modèles de plus en plus complexes sont entraînés sur des volumes de données de plus en plus gros. Cependant, la répartition naturelle des données auprès des capteurs qui les ont crées laisse à penser qu'il serait préférable d'apprendre ces modèles sans collecter les données d'apprentissage auprès d'un calculateur central. Nous présentons dans cet exposé un paradigme d'apprentissage décentralisé asynchrone pour répondre à ce problème. Nous considérons le cas ou plusieurs calculateurs optimisent un modèle statistique à l'aide de données locales et coopèrent afin d'obtenir un modèle consensus. Nous montrons comment transposer des algorithmes d'apprentissage connus (k-means, PCA, SVM, deep learning) à ce paradigme, ainsi que des preuves de leur équivalence avec les versions centralisées. Enfin, nous montrons plusieurs exemples d'applications de ces modèles à des tâches de vision par ordinateur. |
Lundi 11 Mars
Heure: |
14:00 - 15:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Structure Prediction Energy Network (SPEN) using Dual Decomposition on Dependency Parsing |
Description: |
Xudong ZHANG Dependency Parsing is one of the basic tasks in the field of Natural Language Processing (NLP). The goal is to find whether there exist a strong relationship between different words in a sentence. It can be used as the basic step of many NLP systems like question answering system. Solving a dependency parsing problem can be realized by a energy based network with the output of the neural network as a scalar (energy). The goal is to find the most compatible structure (a graph) with the input sentence and the most compatible structure is supposed to give the lowest energy for the neural network. As the structure of the sentence should be a tree (one root, every word has and only has one pa rent, no circle), to simplify the problem, people always construct a linear function corresponding to the structure that we want to find, i.e. we suppose different arcs are independent. However, this method may limit the capacity of the system to describe more complex relations. In this project, inspired by the idea of Structure Prediction Energy Network (SPEN), we construct a new neural network which is composed of two parts, i.e. local energy part and global energy part. We showed that it is possible to solve the problem with dual decomposition when we have a convex (non-linear) function for the global energy part together with the linear local energy part. As one part of my Phd thesis, this work is still ongoing. |
Jeudi 4 Avril
Heure: |
13:30 - 14:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Apprentissage automatique à partir de données complexes et dynamiques: Application aux données textuelles |
Description: |
Parisa RASTIN Les données actuelles sont de plus en plus variées et complexes et il est en général nécessaire dadapter les algorithmes danalyse à chaque type de description des données. Les algorithmes dapprentissage devraient cependant pouvoir être fonctionnels quel que soit le type des données et la métrique choisie. Nous présentons dans cet exposé un algorithme de clustering relationnel basée sur le système de Coordonnées Barycentriques pour homogénéiser la représentation des objets et des prototypes et traiter de grands ensembles de données complexes. Dans le système de Coordonnées Barycentriques, lespace de représentation est défini par un ensemble unique de points de support choisis parmi les objets de la base d'apprentissage. La définition dun prototype correspond au calcul dun objet dans lespace barycentrique. À partir de ces approches, nous proposons un algorithme d'apprentissage basé sur un réseau de neurones artificiel défini dans l'espace barycentrique, adapté aux flux de données textuelles et permettant un suivit dynamique de l'évolution des données au cours du temps. Nous présenterons une applications concrètes sur lextraction de domaines dintérêt extraits dURLS à partir de trace de navigation en ligne. |
Mercredi 17 Avril
Heure: |
14:30 - 15:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Résumé de texte translingue par compression |
Description: |
José Manuel Torres-Moreno Le Résumé Translingue de Textes (RTT) vise à générer un résumé dans une langue autre que le document source.
Plus précisément, le RTT consiste à analyser un document dans une langue source pour en extraire sa signification, puis à générer un résumé court, informatif et correct dans une langue cible.
Ce processus peut être divisé en deux processus principaux : le résumé et la traduction. Processus souvent antagonistes.
Nous avons développé un cadré expérimentale pour générer des résumés translingues de documents en anglais, français, portugais, espagnol vers {anglais, français}.
Nous avons utilisé des applications du TALN (résumé par extraction, similarité de phrases, compression de phrases et fusion multi-phrases) et des approches neuronales pour construire nos modèles de RTT.
Cette présentation sera ciblée sur les techniques et les résultats obtenus lors de nos expériences. |
Jeudi 18 Avril
Heure: |
12:15 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Analyse de sentiment sur les réseaux sociaux |
Description: |
Mohamed Quafafou |
|
|