Mars 2013


Retour à la vue des calendrier
Mardi 5 Mars
Heure: 14:00 - 17:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Combinatorial aspects of the Jacobi conjecture
Description: Axel de Goursac We expose the reformulation of the Jacobian conjecture in terms of the combinatorics of Feynman diagrams of a certain Quantum Field Theory. We will also discuss considerations about Dixmier conjecture and Noncommutative Quantum Field Theory.
Vendredi 8 Mars
Heure: 12:30 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Some Results for Linear Logic Full Completeness
Description: Hugh Steele Many full completeness theorems have been established for fragments of
linear logic since the notion was first defined by Samson Abramsky and
Radha Jagadeesan in their 1992 paper. For the most part, these results
are obtained on a case-by-case basis: the subject of each proof is
precisely one category.

In this talk it is shown that the Hyland-Tan double glueing
construction can transform all tensor-generated compact closed
categories with finite biproducts into fully complete models of
unit-free MLL. The arguments employed are based around considering the
combinatorics behind the construction using standard linear algebra.
It is also discussed how another double glueing construction may be
able to create similar categories satisfying unit-free MALL full
completeness.
Mardi 12 Mars
Heure: 12:30 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Reverse Chvatal-Gomory rank.
Description: Roland Grappe We introduce the reverse Chvatal-Gomory rank r*(P) of an integral
polyhedron P, defined as the supremum of the Chvatal-Gomory ranks of all
rational polyhedra whose integer hull is P. A well-known example in
dimension two shows that there exist integral polytopes P with r*(P)
infinite. We provide a geometric characterization of polyhedra with this
property in general dimension, and investigate upper bounds on r*(P)
when this value is finite.
This is a joint work with Michele Conforti, Alberto Del Pia, Marco Di
Summa and Yuri Faenza. 
Heure: 14:00 - 17:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Bipartite subfamilies of planar graphs
Description: Juanjo Rué Perna I will survey the techniques used to get asymptotic results for subfamilies of planar graphs, as well as how to relate this methodology with the context of map enumeration. In the second part of the talk, I willexplain the ideas behind some on-going projects related to the enumeration of bipartite subfamilies of graphs.
Vendredi 15 Mars
Heure: 13:30 - 14:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Linear Dependent Types For Differential Privacy
Description: Marco Gaboardi Differential privacy offers a way to answer queries about
sensitive information while offering strong, provable privacy guarantees.
Several tools have been developed for certifying that a given query is
differentially private. In one approach, Reed and Pierce[31] proposed a
functional programming language, Fuzz, for writing differentially private
queries. Fuzz uses linear types to track sensitivity, as well as a
probability monad to express randomized computation; it guarantees that any
program that has a certain type is differentially private. Fuzz can
successfully verify many useful queries. However, it fails when the
analysis depends on values that are not known statically.
We present DFuzz, an extension of Fuzz with a combination of linear indexed
types and lightweight dependent types. This combination allows a richer
sensitivity analysis that is able to analyze a larger class of queries,
including queries whose sensitivity depends on runtime information. As in
Fuzz, the differential privacy guarantees follows directly from the
soundness theorem for the type system. We demonstrate the enhanced
expressivity of DFuzz by certifying differential privacy a broad class of
iterative algorithms that could not be typed previously. We conclude by
discussing the challenges of DFuzz type checking.
Mardi 19 Mars
Heure: 12:30 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Accelerated Column Generation for Cutting Stock and Bin Packing
Description: Accelerated Column Generation for Cutting Stock and Bin Packing One successful method for solving the cutting stock (CS) and bin packing
problem (BP) is branch-and-price.  The column generation master program
is a set covering problem where columns correspond to feasibly filled
bins that cover a subset of the items.  It is known that standard column
generation suffers from slow convergence (tailing off).  For CS, valid
inequalities on the dual prices of the covering constraints, so-called
dual optimal inequalities, were identified to be helpful to mitigate the
tailing off effect.  The presentation addresses three issues:  First,
the standard approach is the a priori construction of dual optimal
inequalities before solving the master program.  We show that the most
violated inequalities can be easily identified in the column generation
process and so be added dynamically.  For standard benchmark problems,
computation times were approximately halved.  Second, for BP not all CS
inequalities are dual optimal, i.e., fulfilled by at least one optimal
solution of the LP-relaxation of the master program.  We present a way
to handle these cases and to reconstruct primal feasible solutions
needed in the branch-and-bound process.  Third, we generalize our
results to the BP with conflicts. 
Jeudi 21 Mars
Heure: 12:30 - 14:00
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Fouille de sous-graphes fréquents à base d'arc consistance
Description: Brahim Douar Avec la croissance importante du besoin d'analyser une grande masse de données structurées tels que les composés chimiques, les structures de protéines ou même les réseaux sociaux, la fouille de sous-graphes fréquents est devenue un défi réel en matière de fouille de données. Ceci est étroitement lié à leur nombre exponentiel ainsi qu'à la NP-complétude du problème d'isomorphisme d'un sous-graphe général. Face à cette complexité, et pour gérer cette taille importante de l'espace de recherche, les méthodes classiques de fouille de graphes ont exploré des heuristiques de recherche basées sur le support, le langage de description des exemples (limitation aux chemins,  aux arbres, etc.) ou des hypothèses (recherche de sous-arborescence communes, de chemins communs, etc.). Dans le cadre de notre travail de recherche, nous nous basons sur une méthode d'appariement de graphes issue du domaine de la programmation par contraintes, nommée AC-projection, qui a le mérite d'avoir une complexité polynomiale. Nous introduisons des approches de fouille de graphes permettant d'améliorer les approches existantes pour ce problème. En particulier, nous proposons deux algorithmes, FGMAC et AC-miner, permettant de rechercher les sous-graphes fréquents à partir d'une base de graphes. Ces deux algorithmes profitent, différemment, des propriétés fortes intéressantes de l'AC-projection. En effet, l'algorithme FGMAC adopte un parcours en largeur de l'espace de recherche et exploite l'approche par niveau introduite dans Apriori, tandis que l'algorithme AC-miner parcourt l'espace en profondeur par augmentation de motifs, assurant ainsi une meilleure mise à l'échelle pour les grands graphes.  Ces deux approches permettent l'extraction d'un type particulier de graphes, il s'agit de celui des sous-graphes AC-réduits fréquents. Dans un premier temps, nous prouvons, théoriquement, que l'espace de recherche de ces sous-graphes est moins important que celui des sous-graphes fréquents à un isomorphisme près. Ensuite, nous menons une série d'expérimentations permettant de prouver que les algorithmes FGMAC et AC-miner sont plus efficients que ceux de l'état de l'art. Au même temps, nous prouvons que les sous-graphes AC-réduits fréquents, en dépit de leur nombre sensiblement réduit, ont le même pouvoir discriminant que les sous-graphes fréquents à un isomorphisme près. Cette étude est menée en se basant sur une évaluation expérimentale de la qualité des sous-graphes AC-réduits fréquents dans un processus de classification supervisée de graphes.
Jeudi 28 Mars
Heure: 12:30 - 13:30
Lieu: Salle B107, bâtiment B, Université de Villetaneuse
Résumé: Matrice chapeau à noyau discriminante : nouvel outil pour la détection de points aberrants dans les jeux de données
Description: Franck Dufrenois Les données que nous manipulons et étudions sont généralement imparfaites, « polluées » par la présence d'observations aberrantes et constitue un handicap pour expliquer le phénomène dominant sous-jacent aux données. Ces « outliers » signalent soit la présence  d'un phénomène résiduel étranger et/ou la nature imparfaite des « capteurs » que nous utilisons. Les outils statistiques classiques doivent donc introduire dans leur principe des propriétés de robustesse afin d'isoler la structure d'intérêt.En régression, le terme employé est la « régression robuste » et en classification, plusieurs termes sont utilisés: problème de classification à une classe, détection de nouveautés. Le terme « une classe » signifie qu'un sous ensemble des observations forme statistiquement un échantillon représentatif et que l'autre regroupe des événements « rares », souvent impossible à caractériser statistiquement et donc ne pouvant être définis par une classe additionnelle.Bien qu'à priori conceptuellement différent, je propose dans cet exposé de montrer qu'il existe une passerelle entre la régression robuste et la classification à une classe. En particulier, je montre que la régression linéaire robuste peut être formulée à partir d'un critère de Fisher linéaire à une classe, critère traditionnellement employé pour séparer linéairement deux classes. Cette nouvelle mesure de contraste est basée sur les propriétés de décomposition en sous espace de la matrice chapeau. La matrice chapeau est une quantité auxiliaire utilisée en régression, permettant en particulier, via ses éléments diagonaux, de détecter la présence de données atypiques.La maximisation de cette mesure de contraste fournit à la fois le sous espace projectif optimale (au sens du critère) ainsi que le vecteur indicateur séparant la population en deux classes : la classe « dominante » et la classe  « outliers ». Elle est conduite sous la forme d'un processus d'optimisation itératif, alternant entre l'estimation du sous espace projectif optimal et la mise à jour de l'état du vecteur indicateur. Si l'estimation du sous espace projectif est équivalent à résoudre un problème de valeurs propres généralisées, la mise à jour de l'état du vecteur indicateur est basé sur l'hypothèse de gaussianité perturbant le sous ensemble linéaire dominant. Il en résulte que les coefficients diagonaux  de la matrice chapeau « projetés » sur le sous espace optimal suivent une loi du  χ^2permettant une description formelle des points aberrants et leur identification par test d'hypothèse.L'itération de cette procédure en deux étapes fournit à la fois le vecteur des paramètres de la régression et les labels des données. La fonctionnalité de cet algorithme est bivalente : il agit à la fois comme un régresseur et un classifieur. Cette caractéristique confère « naturellement » à notre outil un très bon niveau de robustesse.Dans une seconde partie, nous verrons comment étendre cette mesure de contraste pour isoler une population dominante non linéaire du reste des données. L'utilisation de l'astuce du noyau « the kernel trick » maintenant couramment employé pour « sortir du linéaire » nos outils statistiques standards, sera là encore mis à contribution. L'idée majeure de cette astuce repose sur l'action de « plonger » les données d'entrée dans un espace de redescription de dimension plus importante voir infinie et surtout, afin d'éviter le problème récurrent de la course à la dimension, de remplacer le produit scalaire par une fonction noyau. La fonction noyau qui sera utilisée durant ce travail sera la fonction gaussienne En particulier, nous montrerons dans cette partie qu'il existe un encadrant supérieure de notre mesure de contraste, dépendant uniquement du vecteur indicateur, permettant ainsi de séparer l'estimation du vecteur indicateur de l'estimation du sous espace projectif. Nous montrerons également que cet encadrant moyennant une légère modification constitue une fonction objective concave, dont la maximisation est équivalent à résoudre un problème linéaire à variables binaires sans contraintes.  Si à première vue ce problème peut être considéré comme NP difficile, sa nature concave nous permettra de le résoudre facilement par une approche de type perturbation avec initialisation. L'état du vecteur indicateur sera ainsi déterminé. Une frontière de décision séparant les outliers des données dominantes sera ensuite estimée comme solution d'un problème de valeurs propres généralisé .Bien évidemment, le problème de la sélection du modèle sera également abordé. Le choix de l'échelle de la gaussienne ainsi que le paramètre de régularisation sera discuté.La performance de cette approche sera étudiée sur des données synthétiques ainsi que sur des données réelles. La phase d'initialisation de notre approche nous permet de travailler soit en mode « non supervisé » soit en mode « semi-supervisé ». Nous pourrons comparer cette approche avec  des méthodes récentes non et semi supervisées.Les données que nous manipulons et étudions sont généralement imparfaites, « polluées » par la présence d'observations aberrantes et constitue un handicap pour expliquer le phénomène dominant sous-jacent aux données. Ces « outliers » signalent soit la présence  d'un phénomène résiduel étranger et/ou la nature imparfaite des « capteurs » que nous utilisons. Les outils statistiques classiques doivent donc introduire dans leur principe des propriétés de robustesse afin d'isoler la structure d'intérêt.En régression, le terme employé est la « régression robuste » et en classification, plusieurs termes sont utilisés: problème de classification à une classe, détection de nouveautés. Le terme « une classe » signifie qu'un sous ensemble des observations forme statistiquement un échantillon représentatif et que l'autre regroupe des événements « rares », souvent impossible à caractériser statistiquement et donc ne pouvant être définis par une classe additionnelle.Bien qu'à priori conceptuellement différent, je propose dans cet exposé de montrer qu'il existe une passerelle entre la régression robuste et la classification à une classe. En particulier, je montre que la régression linéaire robuste peut être formulée à partir d'un critère de Fisher linéaire à une classe, critère traditionnellement employé pour séparer linéairement deux classes. Cette nouvelle mesure de contraste est basée sur les propriétés de décomposition en sous espace de la matrice chapeau. La matrice chapeau est une quantité auxiliaire utilisée en régression, permettant en particulier, via ses éléments diagonaux, de détecter la présence de données atypiques.La maximisation de cette mesure de contraste fournit à la fois le sous espace projectif optimale (au sens du critère) ainsi que le vecteur indicateur séparant la population en deux classes : la classe « dominante » et la classe  « outliers ». Elle est conduite sous la forme d'un processus d'optimisation itératif, alternant entre l'estimation du sous espace projectif optimal et la mise à jour de l'état du vecteur indicateur. Si l'estimation du sous espace projectif est équivalent à résoudre un problème de valeurs propres généralisées, la mise à jour de l'état du vecteur indicateur est basé sur l'hypothèse de gaussianité perturbant le sous ensemble linéaire dominant. Il en résulte que les coefficients diagonaux  de la matrice chapeau « projetés » sur le sous espace optimal suivent une loi du  χ^2permettant une description formelle des points aberrants et leur identification par test d'hypothèse.L'itération de cette procédure en deux étapes fournit à la fois le vecteur des paramètres de la régression et les labels des données. La fonctionnalité de cet algorithme est bivalente : il agit à la fois comme un régresseur et un classifieur. Cette caractéristique confère « naturellement » à notre outil un très bon niveau de robustesse.Dans une seconde partie, nous verrons comment étendre cette mesure de contraste pour isoler une population dominante non linéaire du reste des données. L'utilisation de l'astuce du noyau « the kernel trick » maintenant couramment employé pour « sortir du linéaire » nos outils statist