Lundi 4 Février
Heure: |
00:59 - 15:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Séquences fréquentes maximales et applications |
Description: |
Antoine Doucet Une séquence d'items (par exemple, des mots, ou des caractères), est définie par l'ordre dans lequel ces items apparaissent dans un document, indépendamment de la distance qui les y sépare. Une séquence est dite fréquente, si elle apparaît dans plus de documents qu'un seuil de fréquence documentaire donné. Elle est dite maximale dès lors que l'insertion de tout autre item induit une fréquence inférieure au seuil. Appliquées par exemple au niveau phrastique, les séquences fréquentes maximales (SFM) forment ainsi des descripteurs compacts, qui ne sont ni limités en taille, ni par la distance les séparant dans le corpus initial. Je détaillerai tout d'abord notre méthode non supervisée permettant l'extraction et la sélection efficace de séquences fréquentes maximales depuis des corpus de texte de toute taille, quel qu'en soit le genre, et quelle qu'en soit la langue. Je présenterai ensuite plusieurs applications de ces travaux, notamment en extraction de synonymes, utilisant les SFM comme pivots d'alignement de paraphrases. J'aborderai également nos applications en recherche d'information multilingue, en veille épidémiologique multilingue et en détection de nouveauté dans des flux de dépêches d'agence de presse. |
Mardi 5 Février
Heure: |
10:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Inversion de Lagrange multivariée |
Description: |
Axel Bacher |
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Separable non-convex underestimators for binary quadratic programming |
Description: |
Emiliano Traversi We present a new approach to constrained quadratic binary programming. Dual bounds are computed by choosing appropriate global underestimators of the objective function that are separable but not necessarily convex. Using the binary constraint on the variables, the minimization of this separable underestimator can be reduced to a linear minimization problem over the same set of feasible vectors. For most combinatorial optimization problems, the linear version is considerably easier than the quadratic version. We explain how to embed this approach into a branch-and-bound algorithm and present experimental results. |
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
La conjecture de Hadamard |
Description: |
Shalom Eliahou< |
Mardi 12 Février
Heure: |
10:00 - 13:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Journée en l'honneur du départ à la retraite de Pierre Nicodème : accueil |
Description: |
Pierre Nicodème |
Heure: |
10:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Computer algebra for the enumeration of lattice walks |
Description: |
Alin Bostan |
Heure: |
11:30 - 14:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Newton iteration in computer algebra and combinatorics |
Description: |
Bruno Salvy |
Heure: |
14:30 - 17:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Some patterns in Pierre Nicodème's works |
Description: |
Julien Clément |
Mardi 19 Février
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Discrete optimization using semidefinite methods |
Description: |
Angelika Wiegele Many real-world applications, although being non-linear, can be well described by linearized models. Therefore, Linear Programming (LP) became a widely studied and applied technique in many areas of science, industry and economy. Semidefinite Programming (SDP) is an extension of LP. A matrix-variable is optimized over the intersection of the cone of positive semidefinite matrices with an affine space. It turned out, that SDP can provide significantly stronger practical results than LP. Since then SDP turned out to be practical in a lot of different areas, like combinatorial optimization, control theory, engineering, and more recently in polynomial optimization.
In this talk I will present some ideas how to model discrete optimization problems using semidefinite programming in order to obtain semidefinite relaxations. Some of this relaxations proved to be succesful when using in a branch-and-bound framework. Furthermore, I want to present a new idea of how to strengthen semidefinite relaxations.&nbsp; |
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Énumeration exacte et asymptotique de pastèques avec barrière |
Description: |
Christian Krattenthaler Le modèle des promeneurs vicieux (sic!)a été introduit par Michael Fisher en mécanique statistique en 1984.De nombreuses variantes ont été étudiées depuis,en particulier celle que je condidère dans mon exposé :lorsque qu'il y a une interaction entre ces promeneurs et un mur.Ce modèle a été originellement proposé par Owczarek, Essam et Brak, qui ont établi quelques résultats partiels.Je montrerai comment complètement déterminer le comportement asymptotiquede la fonction de partition correspondante (et celle d'un autre paramètre pertinent).Nous rencontrerons comme de bien entendu (attendu!) mes chers amis : déterminants, une bijection de tableau et des séries hypergéometriques. |
Jeudi 21 Février
Heure: |
00:59 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Analyse syntaxique en dépendances et prédiction structurée |
Description: |
Joseph Leroux |
Mardi 26 Février
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
 Réservation de voies dans un réseau de transport |
Description: |
Feng Chu |
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Un petit survol des grands algorithmes de la théorie des graphes, illustrés via le logiciel libre PIGALE |
Description: |
Patrice Ossona de Mendez |
Mardi 5 Mars
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Combinatorial aspects of the Jacobi conjecture |
Description: |
Axel de Goursac We expose the reformulation of the Jacobian conjecture in terms of the combinatorics of Feynman diagrams of a certain Quantum Field Theory. We will also discuss considerations about Dixmier conjecture and Noncommutative Quantum Field Theory. |
Vendredi 8 Mars
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Some Results for Linear Logic Full Completeness |
Description: |
Hugh Steele Many full completeness theorems have been established for fragments of linear logic since the notion was first defined by Samson Abramsky and Radha Jagadeesan in their 1992 paper. For the most part, these results are obtained on a case-by-case basis: the subject of each proof is precisely one category.
In this talk it is shown that the Hyland-Tan double glueing construction can transform all tensor-generated compact closed categories with finite biproducts into fully complete models of unit-free MLL. The arguments employed are based around considering the combinatorics behind the construction using standard linear algebra. It is also discussed how another double glueing construction may be able to create similar categories satisfying unit-free MALL full completeness. |
Mardi 12 Mars
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Reverse Chvatal-Gomory rank. |
Description: |
Roland Grappe We introduce the reverse Chvatal-Gomory rank r*(P) of an integral polyhedron P, defined as the supremum of the Chvatal-Gomory ranks of all rational polyhedra whose integer hull is P. A well-known example in dimension two shows that there exist integral polytopes P with r*(P) infinite. We provide a geometric characterization of polyhedra with this property in general dimension, and investigate upper bounds on r*(P) when this value is finite. This is a joint work with Michele Conforti, Alberto Del Pia, Marco Di Summa and Yuri Faenza.&nbsp; |
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Bipartite subfamilies of planar graphs |
Description: |
Juanjo Rué Perna I will survey the techniques used to get asymptotic results for subfamilies of planar graphs, as well as how to relate this methodology with the context of map enumeration. In the second part of the talk, I willexplain the ideas behind some on-going projects related to the enumeration of bipartite subfamilies of graphs. |
Vendredi 15 Mars
Heure: |
13:30 - 14:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Linear Dependent Types For Differential Privacy |
Description: |
Marco Gaboardi Differential privacy offers a way to answer queries about sensitive information while offering strong, provable privacy guarantees. Several tools have been developed for certifying that a given query is differentially private. In one approach, Reed and Pierce[31] proposed a functional programming language, Fuzz, for writing differentially private queries. Fuzz uses linear types to track sensitivity, as well as a probability monad to express randomized computation; it guarantees that any program that has a certain type is differentially private. Fuzz can successfully verify many useful queries. However, it fails when the analysis depends on values that are not known statically. We present DFuzz, an extension of Fuzz with a combination of linear indexed types and lightweight dependent types. This combination allows a richer sensitivity analysis that is able to analyze a larger class of queries, including queries whose sensitivity depends on runtime information. As in Fuzz, the differential privacy guarantees follows directly from the soundness theorem for the type system. We demonstrate the enhanced expressivity of DFuzz by certifying differential privacy a broad class of iterative algorithms that could not be typed previously. We conclude by discussing the challenges of DFuzz type checking. |
Mardi 19 Mars
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Accelerated Column Generation for Cutting Stock and Bin Packing |
Description: |
Accelerated Column Generation for Cutting Stock and Bin Packing One successful method for solving the cutting stock (CS) and bin packing problem (BP) is branch-and-price.&nbsp; The column generation master program is a set covering problem where columns correspond to feasibly filled bins that cover a subset of the items.&nbsp; It is known that standard column generation suffers from slow convergence (tailing off).&nbsp; For CS, valid inequalities on the dual prices of the covering constraints, so-called dual optimal inequalities, were identified to be helpful to mitigate the tailing off effect.&nbsp; The presentation addresses three issues:&nbsp; First, the standard approach is the a priori construction of dual optimal inequalities before solving the master program.&nbsp; We show that the most violated inequalities can be easily identified in the column generation process and so be added dynamically.&nbsp; For standard benchmark problems, computation times were approximately halved.&nbsp; Second, for BP not all CS inequalities are dual optimal, i.e., fulfilled by at least one optimal solution of the LP-relaxation of the master program.&nbsp; We present a way to handle these cases and to reconstruct primal feasible solutions needed in the branch-and-bound process.&nbsp; Third, we generalize our results to the BP with conflicts.&nbsp; |
Jeudi 21 Mars
Heure: |
12:30 - 14:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Fouille de sous-graphes fréquents à base d'arc consistance |
Description: |
Brahim Douar Avec la croissance importante du besoin d'analyser une grande masse de données structurées tels que les composés chimiques, les structures de protéines ou même les réseaux sociaux, la fouille de sous-graphes fréquents est devenue un défi réel en matière de fouille de données. Ceci est étroitement lié à leur nombre exponentiel ainsi qu'à la NP-complétude du problème d'isomorphisme d'un sous-graphe général. Face à cette complexité, et pour gérer cette taille importante de l'espace de recherche, les méthodes classiques de fouille de graphes ont exploré des heuristiques de recherche basées sur le support, le langage de description des exemples (limitation aux chemins,&nbsp; aux arbres, etc.) ou des hypothèses (recherche de sous-arborescence communes, de chemins communs, etc.). Dans le cadre de notre travail de recherche, nous nous basons sur une méthode d'appariement de graphes issue du domaine de la programmation par contraintes, nommée AC-projection, qui a le mérite d'avoir une complexité polynomiale. Nous introduisons des approches de fouille de graphes permettant d'améliorer les approches existantes pour ce problème. En particulier, nous proposons deux algorithmes, FGMAC et AC-miner, permettant de rechercher les sous-graphes fréquents à partir d'une base de graphes. Ces deux algorithmes profitent, différemment, des propriétés fortes intéressantes de l'AC-projection. En effet, l'algorithme FGMAC adopte un parcours en largeur de l'espace de recherche et exploite l'approche par niveau introduite dans Apriori, tandis que l'algorithme AC-miner parcourt l'espace en profondeur par augmentation de motifs, assurant ainsi une meilleure mise à l'échelle pour les grands graphes.&nbsp; Ces deux approches permettent l'extraction d'un type particulier de graphes, il s'agit de celui des sous-graphes AC-réduits fréquents. Dans un premier temps, nous prouvons, théoriquement, que l'espace de recherche de ces sous-graphes est moins important que celui des sous-graphes fréquents à un isomorphisme près. Ensuite, nous menons une série d'expérimentations permettant de prouver que les algorithmes FGMAC et AC-miner sont plus efficients que ceux de l'état de l'art. Au même temps, nous prouvons que les sous-graphes AC-réduits fréquents, en dépit de leur nombre sensiblement réduit, ont le même pouvoir discriminant que les sous-graphes fréquents à un isomorphisme près. Cette étude est menée en se basant sur une évaluation expérimentale de la qualité des sous-graphes AC-réduits fréquents dans un processus de classification supervisée de graphes. |
Jeudi 28 Mars
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Matrice chapeau à noyau discriminante : nouvel outil pour la détection de points aberrants dans les jeux de données |
Description: |
Franck Dufrenois Les données que nous manipulons et étudions sont généralement imparfaites, « polluées » par la présence d'observations aberrantes et constitue un handicap pour expliquer le phénomène dominant sous-jacent aux données. Ces « outliers » signalent soit la présence&nbsp; d'un phénomène résiduel étranger et/ou la nature imparfaite des « capteurs » que nous utilisons. Les outils statistiques classiques doivent donc introduire dans leur principe des propriétés de robustesse afin d'isoler la structure d'intérêt.En régression, le terme employé est la « régression robuste » et en classification, plusieurs termes sont utilisés: problème de classification à une classe, détection de nouveautés. Le terme « une classe » signifie qu'un sous ensemble des observations forme statistiquement un échantillon représentatif et que l'autre regroupe des événements « rares », souvent impossible à caractériser statistiquement et donc ne pouvant être définis par une classe additionnelle.Bien qu'à priori conceptuellement différent, je propose dans cet exposé de montrer qu'il existe une passerelle entre la régression robuste et la classification à une classe. En particulier, je montre que la régression linéaire robuste peut être formulée à partir d'un critère de Fisher linéaire à une classe, critère traditionnellement employé pour séparer linéairement deux classes. Cette nouvelle mesure de contraste est basée sur les propriétés de décomposition en sous espace de la matrice chapeau. La matrice chapeau est une quantité auxiliaire utilisée en régression, permettant en particulier, via ses éléments diagonaux, de détecter la présence de données atypiques.La maximisation de cette mesure de contraste fournit à la fois le sous espace projectif optimale (au sens du critère) ainsi que le vecteur indicateur séparant la population en deux classes : la classe « dominante » et la classe&nbsp; « outliers ». Elle est conduite sous la forme d'un processus d'optimisation itératif, alternant entre l'estimation du sous espace projectif optimal et la mise à jour de l'état du vecteur indicateur. Si l'estimation du sous espace projectif est équivalent à résoudre un problème de valeurs propres généralisées, la mise à jour de l'état du vecteur indicateur est basé sur l'hypothèse de gaussianité perturbant le sous ensemble linéaire dominant. Il en résulte que les coefficients diagonaux&nbsp; de la matrice chapeau « projetés » sur le sous espace optimal suivent une loi du&nbsp; Ï^2permettant une description formelle des points aberrants et leur identification par test d'hypothèse.L'itération de cette procédure en deux étapes fournit à la fois le vecteur des paramètres de la régression et les labels des données. La fonctionnalité de cet algorithme est bivalente : il agit à la fois comme un régresseur et un classifieur. Cette caractéristique confère « naturellement » à notre outil un très bon niveau de robustesse.Dans une seconde partie, nous verrons comment étendre cette mesure de contraste pour isoler une population dominante non linéaire du reste des données. L'utilisation de l'astuce du noyau « the kernel trick » maintenant couramment employé pour « sortir du linéaire » nos outils statistiques standards, sera là encore mis à contribution. L'idée majeure de cette astuce repose sur l'action de « plonger » les données d'entrée dans un espace de redescription de dimension plus importante voir infinie et surtout, afin d'éviter le problème récurrent de la course à la dimension, de remplacer le produit scalaire par une fonction noyau. La fonction noyau qui sera utilisée durant ce travail sera la fonction gaussienne En particulier, nous montrerons dans cette partie qu'il existe un encadrant supérieure de notre mesure de contraste, dépendant uniquement du vecteur indicateur, permettant ainsi de séparer l'estimation du vecteur indicateur de l'estimation du sous espace projectif. Nous montrerons également que cet encadrant moyennant une légère modification constitue une fonction objective concave, dont la maximisation est équivalent à résoudre un problème linéaire à variables binaires sans contraintes.&nbsp; Si à première vue ce problème peut être considéré comme NP difficile, sa nature concave nous permettra de le résoudre facilement par une approche de type perturbation avec initialisation. L'état du vecteur indicateur sera ainsi déterminé. Une frontière de décision séparant les outliers des données dominantes sera ensuite estimée comme solution d'un problème de valeurs propres généralisé .Bien évidemment, le problème de la sélection du modèle sera également abordé. Le choix de l'échelle de la gaussienne ainsi que le paramètre de régularisation sera discuté.La performance de cette approche sera étudiée sur des données synthétiques ainsi que sur des données réelles. La phase d'initialisation de notre approche nous permet de travailler soit en mode « non supervisé » soit en mode « semi-supervisé ». Nous pourrons comparer cette approche avec&nbsp; des méthodes récentes non et semi supervisées.Les données que nous manipulons et étudions sont généralement imparfaites, « polluées » par la présence d'observations aberrantes et constitue un handicap pour expliquer le phénomène dominant sous-jacent aux données. Ces « outliers » signalent soit la présence&nbsp; d'un phénomène résiduel étranger et/ou la nature imparfaite des « capteurs » que nous utilisons. Les outils statistiques classiques doivent donc introduire dans leur principe des propriétés de robustesse afin d'isoler la structure d'intérêt.En régression, le terme employé est la « régression robuste » et en classification, plusieurs termes sont utilisés: problème de classification à une classe, détection de nouveautés. Le terme « une classe » signifie qu'un sous ensemble des observations forme statistiquement un échantillon représentatif et que l'autre regroupe des événements « rares », souvent impossible à caractériser statistiquement et donc ne pouvant être définis par une classe additionnelle.Bien qu'à priori conceptuellement différent, je propose dans cet exposé de montrer qu'il existe une passerelle entre la régression robuste et la classification à une classe. En particulier, je montre que la régression linéaire robuste peut être formulée à partir d'un critère de Fisher linéaire à une classe, critère traditionnellement employé pour séparer linéairement deux classes. Cette nouvelle mesure de contraste est basée sur les propriétés de décomposition en sous espace de la matrice chapeau. La matrice chapeau est une quantité auxiliaire utilisée en régression, permettant en particulier, via ses éléments diagonaux, de détecter la présence de données atypiques.La maximisation de cette mesure de contraste fournit à la fois le sous espace projectif optimale (au sens du critère) ainsi que le vecteur indicateur séparant la population en deux classes : la classe « dominante » et la classe&nbsp; « outliers ». Elle est conduite sous la forme d'un processus d'optimisation itératif, alternant entre l'estimation du sous espace projectif optimal et la mise à jour de l'état du vecteur indicateur. Si l'estimation du sous espace projectif est équivalent à résoudre un problème de valeurs propres généralisées, la mise à jour de l'état du vecteur indicateur est basé sur l'hypothèse de gaussianité perturbant le sous ensemble linéaire dominant. Il en résulte que les coefficients diagonaux&nbsp; de la matrice chapeau « projetés » sur le sous espace optimal suivent une loi du&nbsp; Ï^2permettant une description formelle des points aberrants et leur identification par test d'hypothèse.L'itération de cette procédure en deux étapes fournit à la fois le vecteur des paramètres de la régression et les labels des données. La fonctionnalité de cet algorithme est bivalente : il agit à la fois comme un régresseur et un classifieur. Cette caractéristique confère « naturellement » à notre outil un très bon niveau de robustesse.Dans une seconde partie, nous verrons comment étendre cette mesure de contraste pour isoler une population dominante non linéaire du reste des données. L'utilisation de l'astuce du noyau « the kernel trick » maintenant couramment employé pour « sortir du linéaire » nos outils statist |
Mardi 2 Avril
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
A set of triangulations of manifolds in arbitrary dimensions from multi-graphs with colored edges |
Description: |
Valentin Bonzom I will talk about families of triangulations of manifolds in arbitrary dimensions which can be represented by multi-graphs with colored edges.I will focus on an important family of such triangulations, called melonic triangulations, which controls the behavior of integrals over random tensors (a promising approach to quantum gravity). These integrals can be solved by an exact counting of the melonic triangulations. If time permits, I will describe the relation to loop models on random planar maps, and also an interesting family of colored triangulations related to meanders. |
Jeudi 4 Avril
Heure: |
12:30 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Classification croisée par approximations matricielles |
Description: |
Lazhar Labiod Ce travail présente le problème de la classification croisée sous la forme d'un problème d'optimisation algébrique. Il propose trois approximations matricielles diachroniques pour le problème de minimisation de la fonction objective du double k-means. La première approximation consiste en la recherche de la meilleure approximation au sens de la norme de Frobenius via une SVD, la seconde est basée sur une tri-factorisation de matrice non négative et la troisième est une approximation par matrice bi-stochastique. |
Vendredi 5 Avril
Heure: |
10:30 - 11:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
LegalruleML pour la validation de normes juridiques dans le cadre d'un projet de brevet |
Description: |
Naouel Karam Les revendications d'un brevet sont soumis à des tests de conformité spécifiques à chaque système de brevet. Ces normes sont décrites en langage naturel et peuvent être interprétées de différentes manières. Dans le cadre de ce travail, nous proposons une formalisation des directives applicables dans le système de brevet américain. Nous avons choisi d'utiliser&nbsp;LegalRuleML, un standard XML pour la représentation d'information légale basé sur RuleML. Afin de prendre en compte la sémantique des normes, ce dernier est couplé à un traitement du langage naturel et une annotation ontologique. Le raisonnement à base de règles est ensuite transféré au moteur de règles Prova. |
Lundi 8 Avril
Heure: |
14:00 - 15:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Outiller l'annotation manuelle de corpus : le bon (la qualité), la brute (la rapidité) et le truand (les biais) |
Description: |
Karën Fort L'annotation manuelle de corpus est devenue un enjeu fondamental pour le Traitement Automatique des Langues (TAL). En effet, les corpus annotés sont utilisés aussi bien pour créer que pour évaluer des outils de TAL. Or, le processus d'annotation manuelle est encore mal connu et les outils proposés pour supporter ce processus sont souvent mal utilisés, ce qui ne permet pas de garantir le niveau de qualité de ces annotations. Je présenterai lors de ce séminaire une vue d'ensemble de mes travaux de thèse, qui ont porté sur la mise au point d'une méthodologie pour l'annotation manuelle de corpus pour le TAL. Je détaillerai ensuite mes travaux concernant l'impact de la pré-annotation automatique sur la qualité et la rapidité de correction humaine, à travers une série d'expériences menées sur l'annotation morpho-syntaxique de l'anglais. Je finirai en proposant des pistes de recherche sur l'annotation assistée par ordinateur. |
Mardi 9 Avril
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Pyramides et diamants |
Description: |
Sylvie Corteel On cherche à énumérer des pavages par dominos d'une région obtenuspar flip à partir d'un pavage minimal unique.Pour cela, on utilise les diagrammes maya, les "vertex operators" etles fonctions de Schur supersymétriques. On obtient des formules type"équerre" ; dont des cas particuliers compte les pavages du diamantaztèque ou les partitions pyramides de Ben Young.[Travail en commun avec Jérémie Bouttier et Guillaume Chapuy)] |
Mercredi 10 Avril
Heure: |
14:00 - 15:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Représentation et exploitation des connaissances de domaine : vers un développement dirigé par les ontologies |
Description: |
Samira Si-said Cherfi
Les ontologies, grâce à leur popularité et aux avancées accomplies tant du point de vue de la maturité que de celui des solutions techniques relatives à leur mise en Åuvre, peuvent constituer un véhicule à cette connaissance.
Il explore ensuite quelques directions de recherche pouvant compléter l'approche proposée. |
Jeudi 11 Avril
Heure: |
12:00 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Contributions à la gestion et à la fouille de données spatiotemporelles imprécises |
Description: |
Cyril de Runz Ce travail se positionne dans le cadre de la manipulation de données spatiotemporelles réelles en tenant compte de leur imperfection et plus particulièrement de leur imprécision. La démarche présentée s'inscrit dans la volonté d'aller vers une meilleure gestion de celles-ci tant pour leur représentation que pour leur analyse et leur visualisation. Dans ce contexte, nos contributions portent d'une part sur la gestion des données imprécises tant au niveau conception et construction des systèmes d'information géographique que de l'interrogation des données, et, d'autre part, sur l'exploration, possiblement visuelle, des bases ainsi construites. Nos méthodes se basent notamment sur la définition d'indices temporels flous, de graphes, de rangs, de coloriage guidé par les données, etc. La démarche sera illustrée autour d'applications sur des données issues de l'archéologie préventive et sur des cas d'études prospectifs en agronomie et en urbanisme. |
Heure: |
14:00 - 15:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Analyse de réseaux complexes |
Description: |
Vincent Labatut Le but de cette présentation est de décrire l'activité de recherche de l'équipe compnet de l'université Galatasaray (Istanbul, Turquie). celle ci porte sur l'analyse de réseaux complexes, et plus particulièrement:- l'extraction de réseaux à partir de données brutes (notamment textuelles)- leur caractérisation à l'aide de mesures topologiques, et la définition de mesures adaptées au système étudié- la détection de communautés : évaluation, génération de données de test, exploitation d'attributs nodaux dans le processus de détectionles domaines d'application abordés sont les réseaux sociaux, les réseaux de capteurs sans fil et les réseaux de services web. |
Lundi 15 Avril
Heure: |
14:00 - 15:00 |
Lieu: |
Salle C311, bâtiment C, Université de Villetaneuse |
Résumé: |
Accéder à l'information selon des critères temporels |
Description: |
Charles Teissèdre La présentation portera sur la problématique de l'accès aux textes numériques, en particulier de l'accès à leur « contenu informationnel » selon des critères temporels. Bien que les systèmes de recherche d'information améliorent et enrichissent continuellement les fonctions d'interrogation et de filtrage qu'ils proposent, il y a toutefois peu de réalisations opérationnelles permettant de prendre en charge les informations temporelles&nbsp;; non pas tant celles autour des documents (comme leur date de publication), mais celles exprimées dans les documents. Sous l'angle de la représentation des connaissances, des difficultés émergent lorsqu'il s'agit de représenter des informations temporelles: (1) au niveau de la modélisation d'abord (comment représenter des informations temporelles de natures très variées, parfois imprécises ?), (2) au niveau des données elles-mêmes ensuite (comment tirer parti des informations temporelles exprimées dans les textes pour enrichir par exemple des entrepôts de données ?), et enfin (3) au niveau de l'exploitation de ces données (comment les interroger ?).
On montrera que l'analyse linguistique des unités textuelles qui contribuent de façon saillante à l'ancrage dans le temps des situations décrites dans les textes, les adverbiaux de localisation temporelle, peut permettre d'apporter des éléments de réponse à ces difficultés. L'approche sera illustrée par des réalisations expérimentales pour la recherche d'information et l'acquisition d'information à partir des textes. |
Mardi 16 Avril
Heure: |
14:00 - 17:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Sur l'arbre des semigroupes numériques |
Description: |
Jean Fromentin Un semi-groupe numérique est une partie de N stable par addition et de complément fini.D'apparence simple, ces objets conduisent à de nombreux problèmes : problème de Frobenius (ou de rendu de monnaie), conjecture de Wilf, ...Les semi-groupes numériques peuvent être regroupés par genre, le genre d'un semi-groupe numérique étant le cardinal de son complémentaire dans N. Une question naturelle est alors de déterminer le nombre de semi-groupes numériques de genre donné.Les valeurs de n_g ont été calculés par Maria Bras Amoros pour g |
Mercredi 17 Avril
Heure: |
00:59 - 16:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Extraction de règles pour l'annotation automatique et problèmes d'incomplétude lexicale |
Description: |
Damien Nouvel Les quantités d'informations textuelles à analyser sont de plus en plus importantes et nécessitent de mettre au point des techniques robustes afin de les traiter. Dans ce contexte, les travaux présentés portent sur deux problématiques distinctes : la reconnaissance des entités nommées (REN) et l'incomplétude lexicale. Pour la REN, une approche s'appuyant sur la fouille de données sera exposée, appliquée à des transcriptions d'émissions radiodiffusées ou télévisuelles. Celle-ci propose deux contributions originales : l'utilisation de techniques de fouille de données pour la REN (extraction de motifs séquentiels hiérarchiques de segments comme règles d'annotation) et la formulation de la REN comme positionnement de balises d'annotation (marqueurs, instructions). Les performances obtenues dans le cadre de la campagne Etape seront présentées. Pour ce qui concerne l'incomplétude lexicale, des travaux récents réalisés dans le cadre du projet EDyLex seront exposés. Ils montrent la possibilité d'acquérir automatiquement de nouvelles entrées (hors entités nommées) pour ajout au lexique, par utilisation de ressources externes et de règles de dérivation ou de composition. |
Heure: |
12:15 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Relations to improve motion understanding |
Description: |
Cristina Manfredotti Many domains in the real world are richly structured, containingseveral distinct objects interacting with each other. This is the caseof many problems as, for example, multi-target tracking, activityrecognition, automatic surveillance and traffic monitoring. The commonground of these types of problems is the necessity of recognizing andunderstanding the scene, the activities that are going on, who are theactors, their role and estimate their positions. The explicitrepresentation of the interconnected behaviors of agents can providebetter models for capturing key elements of the activities in thescene.We develop a tracking framework that takes into account interactionsbetween objects allowing the recognition of complex activities. Incontrast to classic approaches that consider distinct phases oftracking and activity recognition, our framework performs these twotasks simultaneously. In particular, we adopt a Bayesian standpointwhere the system maintains a joint distribution of the positions, theinteractions and the possible activities. This turns out to beadvantageous, as information about the ongoing activities can be usedto improve the prediction step of the tracking, while, at the sametime, tracking information can be used for online activityrecognition. Moreover, the explicit recognition of the relationshipsbetween interacting objects improves the understanding of theirdynamic domain. Experimental results in two different settings showthat our approach 1) decreases the error rate and improves theidentity maintenance of the positional tracking and 2) identifies thecorrect activity with higher accuracy than standard approaches.In order to automatically learn thee transition models we propose amulti-layer framework, called LEMAIO that makes use of hierarchicalabstraction. LEMAIO can learn models of activities involving multipleinteracting objects from time sequences of data concerning theindividual objects. Experiments in the sea navigation domain yieldedlearned models that were then successfully applied to activityrecognition, activity simulation and multitarget tracking. |
Jeudi 18 Avril
Heure: |
00:59 - 11:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Sentiment Analysis on Italian Tweets |
Description: |
Malvina Nissim Micro texts such as tweets are a precious mine for anyone who wants to grasp opinions of groups of people, possibly about a specific topic or product. Tweets are associated to several kinds of meta-data, such as geographical coordinates of where the tweet was sent from, the id of the sender, the time of the day, and so on --- all information that can be combined with text analysis to yield an even more accurate picture of who says what, and where, and when. Mining opinions, however, requires data and tools which are not necessarily available for all languages of interest. In this talk I will present TWITA, the first of corpus of tweets for Italian, collected in such a way that makes it possible to use the exact same strategy to build similar resources for other languages without any manual intervention. I will also show how we derive a polarity lexicon for Italian, organised by word senses, also using a fully automatic strategy which can replicated to obtain such a resource for other languages. Finally, I will discuss preliminary experiments on using the lexicon to automatically assign polarity to two subsets of the tweets in our corpus, namely a generic one, and a topic-specific one, and highlight limitations of a shallow approach and directions for improvement. (joint work with Valerio Basile, Rijksuniversiteit Groningen) |
Heure: |
09:30 - 12:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Journée inaugurale du pôle MathSTIC de Paris 13 |
Description: |
Journée inaugurale du pôle MATHSTIC :3 laboratoires de l'Institut Galilée (Le LAGA, le LIPN, et le L2TI)s'associent pour proposer une journée inaugurale du POLE MATHSTIC,le 18 avril de 9h30 à 17h30 en Amphi A.9h30 Accueil9h45 Présentation du pôle (C. Fouqueré) Mots de C. Desfrançois VPCS et F. Dibos Directrice del'institut Galilée10h Présentation de l'axe 2 (L. Halpern) Architectures émergentes et passage à l'échelle d'applicationsparallèles (C. Coti) Déploiement de réseaux sans fil (N. Achir ) Méthodes de décomposition de domaine espace-temps (C. Japhet) Calculs performants pour la simulation d'écoulements à frontsraides (F. Benkhaldoun)12h Buffet (salle M100 de l'IUT)13h15 Présentation de l'axe 3 (A. Sportiello) Mots circulaires (B. Rittaud) Physique combinatoire : algèbres de Hopf - combinatoires enthéories quantiques de champs (A. Tanasa) Combinatoire et aléas (P. Marchal)15h15 pause café15h30 Présentation de l'axe 1 (R. Wolfler-Calvo) Les algorithmes de flots à la rescousse (L. Létocart) Compression d'images avec contrôle de qualité : au delà ( B. Matei) Améliorer la mobilité grâce aux Systèmes de TransportIntelligents (K. Boussetta)17h30 fin |
Heure: |
12:30 - 14:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Classification non-supervisée : de la multiplicité des données à la multiplicité des analyses |
Description: |
Jacques-Henri Sublemontier La classification automatique non-supervisée est un problème majeur, aux frontières de multiples communautés issues del'Intelligence Artificielle, de l'Analyse de Données et des Sciences de la Cognition. Elle vise à formaliser et mécaniser la tâchecognitive de classification, afin de l'automatiser pour la rendre applicable à un grand nombre d'objets (ou individus) à classer.Des visées plus applicatives s'intéressent simplement à l'organisation automatique de grands ensembles d'objets en différentsgroupes partageant des caractéristiques communes. Les objets à classer peuvent être : des clients dans le cadre du marketing,des gènes ou des protéines dans le cadre de la biologie, des acteurs dans le cadre de la recherche de communautés dans les réseaux sociaux, ou bien encorede caractères manuscrits dans le cadre de la reconnaissanceautomatique de caractères. L'objet de ce séminaire est de s'intéresser à des méthodes de classification non-supervisées applicables lorsque lesobjets peuvent être décrits par plusieurs représentations indépendantes simultanément, ou lorsque plusieurs sourcesd'informations sont disponibles pour compléter et guider la recherche d'une ou plusieurs structures classificatoires des données.La notion de multiplicité devient alors proéminente, et celle-ci sera observée selon différents angles et à travers différentsparadigmes de l'apprentissage automatique et de la fouille de données. Un exposé d'études récentes et de contributions autour des paradigmes du"clustering multi-vues", de l'"alternative clustering", du "clustering semi-supervisé" du "clustering ensemble" et plus généralementde la combinaison, coopération ou collaboration de clusterers (ou algorithmes de regroupement) sera présenté,tout en motivant la recherche de solutions unifiantes. Ce dernier thème de recherche permet d'apporter des propositions répondant à desproblèmes très actifs et actuels en Fouille de Données et en Extraction et Gestion des Connaissances. |
Lundi 22 Avril
Heure: |
00:59 - 15:00 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Analyse et Etude de l'Evolution Temporelle des Réseaux Sociaux et du Web |
Description: |
Mario Cataldi Au cours des dernières années, la quantité des informations disponibles (dans le Web et non) a énormément augmenté. Pour cela, il est important d'analyser automatiquement ces grands ensembles de données afin de fournir des nouveaux mécanismes pour analyser, extraire, indexer et explorer leurs contenus.Pour ce faire, afin de faciliter l'analyse des contenus textuels générés par les utilisateurs (disponibles maintenant en très grande quantité), &nbsp;dans ce séminaire, &nbsp;je montrerai de nouveaux mécanismes pour la détection de thèmes (Topic Detection and Tracking, TDT) pour analyser et suivre efficacement l'évolution de l'information textuelle exprimée dans un réseau social et dans le Web. En particulier, je montrerai de nouvelles mesures pour identifier les relations qui existent entre les utilisateurs et entre les contenus et, par conséquent, des techniques pour modéliser ces informations comme un graphe social où il est possible de suivre les thèmes de discussion les plus émergents dans une communauté. Afin de mieux évaluer la nature dynamique de ces contenus, on introduira de nouveaux paramètres de nature temporelle qui permettent de suivre en temps réel le flux d'information à l'intérieur d'un réseau social.&nbsp;De plus, pour améliorer l'analyse de ces contenus dynamiques, je montrerai de nouveaux mécanismes pour modéliser l'influence parmi les utilisateurs et estimer leur réputation dans la communauté en question. |
Mercredi 24 Avril
Heure: |
12:00 - 13:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Machine Learning as New Tool for Predicting Radiotherapy Response: Current Challenges and Future directions |
Description: |
Issam El Naqa More than half all cancer patients receive radiation treatment (radiotherapy) as part of their treatment and it is the main treatment modality at advance stages of disease. Radiotherapy outcomes are determined by complex interactions between treatment dosimetric techniques, cancer pathology, and patientârelated physiological and biological factors. A common obstacle to building maximally predictive treatment outcome models for clinical practice in radiation oncology is the failure to capture this complexity of heterogeneous variable interactions and the ability to translate outcome models across different multiâinstitutional data. Methods based on machine learning can identify data patterns, variable interactions, and higher order relationships among prognostic variables. In addition, they have the ability to generalize to unseen data before. However, within the plethora of machine learning techniques one needs to tailor these methods to radiotherapy outcomes. Off-shelf techniques may not be sufficient to address the current questions faithfully. In this presentation, we will provide examples of the application of machine learning to radiotherapy from our own work and highlight the current challenges, stir discussion between the radiation oncology and the machine learning communities to improve potential application of this promising technology to improve response prediction of radiotherapy outcomes. |
Jeudi 25 Avril
Heure: |
00:59 - 11:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Ressources sémantiques et Recherche d'Information (RI) |
Description: |
Ourdia Ressad-Bouidghaghen Cette présentation, comprendra un aperçu de mes travaux de recherche précédents autour de la thématique de la RI en exploitant des ressources sémantiques. Je vous présenterai une méthode d'extraction de vues sémantiques à partir de textes fondée sur la ressource linguistique WordNet, en particulier les liens sémantiques exploités, la méthode de désambiguïsation utilisée et la méthode adoptée pour la pondération des termes. Puis, un modèle de représentation d'un profil sémantique de l'utilisateur, exploitant la taxonomie ODP, sera présenté en montrant son exploitation pour le ré-ordonnancement des résultats de la recherche pour les personnaliser pour un utilisateur mobile. Je vous donnerais ensuite un aperçu de mes travaux en cours au post-doctorat dans l'équipe, autour de la construction collaborative de ressources sémantiques à partir de textes dans le cadre du projet Légilocal. |
Vendredi 26 Avril
Heure: |
10:30 - 11:30 |
Lieu: |
Salle B107, bâtiment B, Université de Villetaneuse |
Résumé: |
Coopération de la fouille de données et du traitement automatique des langues pour l'accès à l'information |
Description: |
Thierry Charnois Dans cet exposé, je présenterai nos travaux visant à intégrer les techniques de fouille de données dans les méthodes de TAL pour l'accès à l'information. L'idée est de tirer parti de la capacité des techniques de fouille à faire émerger des connaissances sous forme de régularités dans les données volumineuses de type base de données. Je montrerai comment nous avons adapté ces techniques à la donnée textuelle, et sur des problématiques de TAL. Dans un premier temps, je présenterai comment la fouille de motifs séquentiels permet d'acquérir des patrons linguistiques pour des tâches d'extraction d'information, par exemple pour l'extraction de relations entre entités nommées dans les textes biologiques ou médicaux. Dans un second temps, je montrerai un autre type d'application portant sur l'utilisation de la fouille, en particulier sur des textes à valeur littéraire, historique, sociololgique, etc., pour faciliter le travail des linguistiques, notamment pour l'exploration de grands textes ou l'analyse stylistique de ceux-ci.&nbsp; |
|
|