Younès Bennani (Université Paris 13) : Eléments de base, le neurone, architectures, paramètres, Critères et algorithmes d'apprentissage, Adaline, Perceptron, Perceptron Multi-Couches, Réseaux à convolution, Réseaux Profonds, RBF, LVQ, Cartes topologiques (SOM), Liens avec les statistiques, Mesures de performance, Sélection de modèles, Heuristiques pour la généralisation, régularisation structurelle, régularisation explicite et pénalisation.
Younès Bennani & Ievgen Redko (LIPN, Université Paris 13) : Concepts d'Algèbre Linéaire et Décompositions Matricielles (Orthogonalité, Décomposition QR et en Valeurs Singulières, Modèles des Moindres Carrés à rang réduit) - Décomposition matricielle Non-négative (NMF de base, Semi-NMF, Orthogonal-NMF, K-means vs NMF, Convex-NMF, Projective-NMF, Tri-NMF, NMF symétrique, Kernel NMF, Multi-Layer-NMF, Simultaneous-NMF, Convolutive-NMF, Multi-View-NMF) - Applications en Data Mining (Classification de Chiffres manuscrits, Fouille de Texte, Page Ranking, Reconnaissance de visage).
Conférence d'ouverture: «Apprentissage de métriques : des algorithmes aux garanties théoriques»
Salle de bord de Mer
Marc Sebban (Université Saint-Etienne) : Dès qu'il s'agit de traiter des tâches de classification, de régression ou encore de clustering, la notion de métrique se retrouve au cœur de nombreux algorithmes d'apprentissage automatique. Depuis un peu plus de 10 ans, l'optimisation de fonctions de distance, visant à améliorer les tâches traitées, a connu un développement considérable et est devenu un sujet de recherche à part entière, appelé Metric Learning. Les avancées récentes dans le domaine ont dépassé le seul cadre de l'apprentissage automatique, avec des domaines d'application extrêmement fructueux, notamment en computer vision, en bio-informatique ou encore en recherche d'information. L'objectif de cet exposé est de faire un état des lieux de ce domaine de recherche en plein essor. Après avoir introduit les principaux algorithmes de metric learning, nous aborderons la question des garanties théoriques des modèles proposés.
Apprentissage en-ligne à partir de flux de données
Salle de bord de Mer
Vincent Lemaire (Orange Labs) : Data-streams processing is a recent domain of research which is complementary to the Big Data. This kind of algorithms analyze data on the fly, and could be qualified as designed to treat ``Fast Data''. This talk aims at providing an overview of data-streams processing approaches for supervised classification problems. The outline will be : Classification using Big Data versus Classification on Stream Mining, Different forms of learning, Stream: what changes? Requirements for a good algorithm, Taxonomy of classifier for data stream, Leading classifiers (with 3 detailed examples), Concept drift, Evaluation, The two streams? A labeled stream? Links with active learning Alternative problem settings?
Ahlame Douzal (LIG, Université de Grenoble) : L'apprentissage de métriques est au coeur des techniques d'apprentissage et d'analyse de données. Les données temporelles introduisent au niveau des métriques, une complexité supplémentaire liée à l'interdépendance des données. Ce cours présente les principaux travaux d'apprentissage de métriques temporelles, avec une articulation autour de trois aspects : les stratégies d'alignement temporel, les fonctions de coûts entre les données alignées, et les fonctions de pondération des instants d'observation. Ces métriques seront présentées dans un cadre unifié et leur apprentissage, pour la classification de séries temporelles, sera illustré sur plusieurs applications et jeux de données.
Apprentissage en présence d'environnements non stationnaires
Salle de bord de Mer
Liva Ralaivola (LIF, Aix-Marseille Université) : Après avoir brièvement rappelé l'importance de l'hypothèse standard d'apprentissage statistique qui suppose que les exemples d'apprentissage sont des réalisations de variables aléatoires indépendamment et identiquement distribuées (IID), nous discuterons d'apprentissage dans la situation où l'une des hypothèses, indépendance ou identité de la distribution, n'a plus cours. D'une part, nous discuterons d'algorithmes en ligne pour la classification et la régression qui implémentent des stratégies d'oubli.
Apprentissage en présence d'environnements non stationnaires (suite)
Salle de bord de Mer
Liva Ralaivola (LIF, Aix-Marseille Université) : Ces stratégies permettent aux algorithmes de s'adapter à des variations de la distribution qui gouverne les observations. D'autre part, nous décrirons quelques inégalités de concentration adaptées à des situations où les observations ne sont pas nécessairement indépendamment distribuées. Ces inégalités de concentration seront au coeur des résultats que nous présenterons sur les capacités de généralisation de fonctions apprises à partir de données issues de processus où l'hypothèse d'indépendance est violée.
Apprentissage par transfert et adaptation de domaine
Salle de bord de Mer
Amaury Habrard (Université Saint-Etienne) : Introduction transfert learning/domain adaptation -exemple d'applications (computer vision, natural language processing, ...) -un premier exemple: le co-variate shift -méthodes de re-pondération -principaux cadres theoriques, importance des mesures de divergence -méthodes basées sur un changement de représentation -méthodes ensemblistes -méthodes itératives -conclusion -ouverture/liens avec autres thématiques.
Apprentissage par transfert et adaptation de domaine (suite)
Salle de bord de Mer
Amaury Habrard (Université Saint-Etienne) : Introduction transfert learning/domain adaptation -exemple d'applications (computer vision, natural language processing, ...) -un premier exemple: le co-variate shift -méthodes de re-pondération -principaux cadres theoriques, importance des mesures de divergence -méthodes basées sur un changement de représentation -méthodes ensemblistes -méthodes itératives -conclusion -ouverture/liens avec autres thématiques.