2019


Retour à la vue des calendrier
Jeudi 10 Janvier
Heure: 10:30 - 12:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Linear Implicative Algebras, a Brouwer-Heyting-Kolmogorov interpretation of linear logic
Description: Luc Pellissier


Implicative Algebras were recently introduced by Alexandre Miquel as a
unified framework for forcing and realisability, whose particularity is
to interpret terms and formulæ uniformly.

In this ongoing work, we show how linear logic fits in this picture: we
present a notion of model of intuitionnistic linear logic in which sits
both syntactic models and a localized phase semantics ; and show how to
transform such a model into an algebra allowing to interpret faithfully
all the connectives of classical linear logic.
Mardi 15 Janvier
Heure: 12:15 - 13:30
Lieu: Salle A303, bâtiment A, Université de Villetaneuse
Résumé: Towards parallel verification of concurrent systems
Description: Hiba OUNI An efficient way to cope with the combinatorial explosion problem induced by the model checking process is to compute the Symbolic Observation Graph (SOG).
The SOG is defined as a condensed representation of the state space based on a symbolic encoding of the nodes (sets of states). It has the advantage to be much reduced comparing to the original state space graph while being equivalent with respect to linear time properties. Aiming to go further in the process of tackling the state space explosion problem, we propose to parallelize the construction of the SOG using three different approaches.
A multi-threaded approach based on a dynamic load balancing and a shared memory architecture, a distributed approach based on a distributed memory architecture and a hybrid (shared-distributed memory) approach that combines the two previous app roaches. We implement these algorithms, we study their performances and we compare them to each other and to the sequential construction of the SOG.
Experiments show that parallel approaches can improve drastically the performances of the SOG computation regarding a sequential construction.
Afterwards, we go a step forward in improving the SOG construction process by reducing, on the fly, the size of the graph. We provide a symbolic (LDD-based) dichotomy-based algorithm to canonically reduce the size of the SOG aggregates. We implement this algorithm within the three parallel approaches. We conduct experiments in order to measure the impact of the canonization on the SOG construction. Results show that the canonization allows to efficiently decrease memory consumption in all approaches. Also, it allows to improve the scalability for both distributed and hybrid approaches.
Jeudi 17 Janvier
Heure: 12:15 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Characterizing community detection algorithms and detected modules in large-scale complex networks
Description: Vinh Loc DAO La détection de communauté est une technique qui décompose des graphes en sous-graphes densément connectés, ce qui est particulièrement utile dans le cas de (très) grands réseaux complexes dont la visualisation est difficile. De très nombreuses méthodes, très variées ont été proposées ces dernières années. Dans un contexte où aucun consensus n'émerge autour de la notion même de communauté, ces méthodes provoquent de multiples discussions scientifiques autour de la qualité de leur résultat. Dans cette thèse, nous proposons plusieurs types d'évaluation comparative et approfondie de 16 méthodes bien connues de l'état de l'art ainsi que la caractérisation exhaustive des structures communautaires découvertes dans des réseaux réels variés provenant de domaines différents. Nos résultats - méthodes et analyses - constituent un début de boîte à outils pour l'analyste bien en peine de choisir la méthode adaptée à son étude.
Jeudi 31 Janvier
Heure: 12:15 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Approches génériques pour le traitement des données textuelles et numériques volumineuses, changeantes et multi-vues et des données en graphes
Description: Jean-Charles Lamirel Face à la croissance continue des informations numériques, de multiples natures, qui sont disponibles en ligne, un des challenges importants pour les linguistes et les analystes de l'information, afin de pouvoir formuler des hypothèses et de valider des modèles, est d'exploiter des outils efficaces pour l'analyse de données, capables de s'adapter à des volumes importants de données hétérogènes, changeantes et souvent et de nature distribuée et multi-vues.
Nous aborderons dans cette présentation les principes généraux de la maximisation des traits, une nouvelle approche statistique générique initialement dédiée au traitement des données textuelles volumineuses, mais généralisable à tout type de données numériques dynamiques et multi-vues ou à des données hybrides (textuelles-numériques) et à des données en graphe.
Nous reviendrons sur ses différentes applications à succès dans les deux cadres, supervisé et non supervisé, en comparant ses performances avec celles des méthodes de l’état de l’art sur des corpus de données de référence. Nous montrerons les avantages supplémentaires liés à son intégration dans un paradigme d’analyse multi-vues basé sur le raisonnement bayésien non supervisé. Nous mettrons finalement en évidence l’intérêt de cette méthode pour l’extraction d’information dans les grands graphes et pour la comparaison de graphes de taille et de densité variable.
Jeudi 7 Février
Heure: 12:15 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Stochastic Majorize-Minimize Subspace Algorithm for Large Scale Data Processing
Description: Emilie Chouzenoux Stochastic approximation techniques play a prominent role in solving many large scale problems encountered in machine learning or image/signal processing. In these contexts, the statistics of the data are often unknown a priori or their direct computation is too intensive, and they have thus to be estimated online from the observations. For batch optimization of an objective function being the sum of a data fidelity term and a penalization (e.g. a sparsity promoting function), Majorize-Minimize (MM) methods have recently attracted much interest since they are fast, highly flexible, and effective in ensuring convergence. The goal of this talk is to show how these methods can be successfully extended to the case when the data fidelity term corresponds to a least squares criterion and the cost function is replaced by a sequence of stochastic approximations of it. In this context, we propose an online version of an MM subspace algorithm and we establish its convergence by using suitable probabilistic tools. We also provide new results on the convergence rate of such kind of algorithm. Numerical results illustrate the good practical performance of the proposed algorithm associated with a memory gradient subspace, when applied to both non-adaptive and adaptive linear system identification scenarios.
Lundi 11 Février
Heure: 14:00 - 16:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Review of neural automatic summarization of conversations for a medical chatbot
Description: Jessica Lopez Espejel Conversation analysis plays an important role in the development of simulation devices for training health professionals (doctors, nurses). The goal of the thesis is to develop an original automatic summarization method for medical conversations between a patient and a health professional based on recent convolutional and recurrent neural summarization advances. The proposed method should be adapted to the specific problems of summarizing dialogues (and trained with abundant data from medical conversations between doctor and patients). The hypothesis is that pertinent blocks of dialogue might be extracted by tagging medical topics to dialog blocks and detecting topic evolution through deep learning.
Mardi 12 Février
Heure: 12:15 - 13:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Méthodes pour la résolution de très grands problèmes combinatoires stochastiques. Application à un problème industriel d'EDF.
Description: Rodolphe Griset Cette exposé s'intéresse à la résolution de très grands problèmes d'optimisation combinatoire stochastique. Les recherches sont appliquées au problème de planification des arrêts pour rechargement des centrales nucléaires. Compte-tenu de la part prépondérante de celles-ci dans le mix-électrique, ce problème structure fortement la chaîne de management d’énergie d'EDF. Une première partie propose une formulation étendue à deux niveaux dans laquelle les décisions de premier niveau fixent les plannings d’arrêt et des profils de production des centrales, et celles de second niveau évaluent le coût de satisfaction de la demande associé. Cette formulation permet la résolution à l'optimum d'instances industrielles déterministes par un solveur en PLNE. Dans le cas stochastique, une telle résolution directe du problème n'est plus possible. Nous proposons une formulation permettant d’en résoudre la relaxation linéaire par génération de colonnes et de coupes, correspondant respectivement aux reformulations de Danzig-Wolfe du premier niveau et de Benders du second. Une phase heuristique permet ensuite de déterminer des solutions entières de bonne qualité pour des instances, jusqu'à une cinquantaine de scénarios représentatifs de l’incertitude sur les données. L’apport de l’approche est estimé en utilisant les outils industriels exploités par EDF pour évaluer les plannings. Une seconde partie porte sur l'intégration de méthodes d'optimisation robuste pour la prise en compte d’aléas sur la disponibilité des centrales. Nous nous plaçons dans un cadre où les recours possibles sur les dates d'arrêts ne sont pas exercés. Nous comparons des méthodes bi-objectif et probabiliste permettant de rendre le planning robuste pour les contraintes opérationnelles dont la relaxation est envisageable. Pour les autres, nous proposons une méthode basée sur un budget d’incertitude. Cette méthode permet de renforcer la stabilité du planning en limitant les besoins de réorganisation futurs. La prise en compte d’une loi de probabilité de l’aléa permet d’affiner le contrôle du prix de cette robustesse.
Lundi 18 Février
Heure: 14:00 - 16:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Sémantique distributionnelle compositionnelle
Description: François Levy
Mardi 19 Février
Heure: 12:30 - 14:00
Lieu: Salle A303, bâtiment A, Université de Villetaneuse
Résumé: Titre bientôt disponible
Description: Amaury Pouly
Jeudi 28 Février
Heure: 12:15 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Apprentissage statistique dans un contexte décentralisé et applications à la vision par ordinateur
Description: David Picard L'apprentissage statistique est de nos jours incontournable dans un certain nombre de tâches complexes, notamment dans le traitement des données multimédia comme la vision. Pour gagner en précision, des modèles de plus en plus complexes sont entraînés sur des volumes de données de plus en plus gros. Cependant, la répartition naturelle des données auprès des capteurs qui les ont crées laisse à penser qu'il serait préférable d'apprendre ces modèles sans collecter les données d'apprentissage auprès d'un calculateur central. Nous présentons dans cet exposé un paradigme d'apprentissage décentralisé asynchrone pour répondre à ce problème. Nous considérons le cas ou plusieurs calculateurs optimisent un modèle statistique à l'aide de données locales et coopèrent afin d'obtenir un modèle consensus. Nous montrons comment transposer des algorithmes d'apprentissage connus (k-means, PCA, SVM, deep learning) à ce paradigme, ainsi que des preuves de leur équivalence avec les versions centralisées. Enfin, nous montrons plusieurs exemples d'applications de ces modèles à des tâches de vision par ordinateur.
Lundi 11 Mars
Heure: 14:00 - 15:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Structure Prediction Energy Network (SPEN) using Dual Decomposition on Dependency Parsing
Description: Xudong ZHANG Dependency Parsing is one of the basic tasks in the field of Natural Language Processing (NLP). The goal is to find whether there exist a strong relationship between different words in a sentence. It can be used as the basic step of many NLP systems like question answering system. Solving a dependency parsing problem can be realized by a energy based network with the output of the neural network as a scalar (energy). The goal is to find the most compatible structure (a graph) with the input sentence and the most compatible structure is supposed to give the lowest energy for the neural network. As the structure of the sentence should be a tree (one root, every word has and only has one pa rent, no circle), to simplify the problem, people always construct a linear function corresponding to the structure that we want to find, i.e. we suppose different arcs are independent. However, this method may limit the capacity of the system to describe more complex relations. In this project, inspired by the idea of Structure Prediction Energy Network (SPEN), we construct a new neural network which is composed of two parts, i.e. local energy part and global energy part. We showed that it is possible to solve the problem with dual decomposition when we have a convex (non-linear) function for the global energy part together with the linear local energy part.
As one part of my Phd thesis, this work is still ongoing.