Colloque : L'APPRENTISSAGE STATISTIQUE, THEORIE ET APPLICATIONS | |
14-15 Novembre 2002
CNAM Paris |
Professeur du Département de Statistique de Stanford University, et Leader du Computation Research Group du Stanford Linear Accelerator Center
Jérôme Friedman apporte depuis 25 ans une contribution remarquable dans de nombreux sujets et méthodologies autour du Data Mining et de la Théorie de l’Apprentissage. En 1977, comme directeur du Groupe d'Analyse Numérique du SLAC (L'accélérateur linéaire de Stanford) , il est co-auteur de différents algorithmes rapides de classification basés sur des méthodes de plus proches voisins. Lors des sept années qui suivent, il travailla avec Leo Breiman, Richard Olshen et Charles Stone pour jeter les bases fondamentales d'une méthodologie centrale sur les arbres de décision, rassemblée dans l'ouvrage «Classification and Decision Trees» (1984), et donnant lieu à un produit commercial : CART(R). Jérôme Friedman s'est vu attribuer en 2002 le prix SIGKDD de l'Innovation.
Son dernier ouvrage écrit avec T. Hastie et R. Tibshirani est The Elements of Statistical Learning Springer 2001.
Professeur de Statistique dans le Département Mathématiques de l'Imperial College
La recherche de David Hand s'étend sur un domaine vaste, comprenant la statistique multivariée, les méthodes de classification, la reconnaissance et la détection de formes, l'analyse des interfaces entre les mondes de la statistique et de l'informatique, la mise en forme des fondements statistiques. David Hand s'intéresse à des applications dans les mondes de la médecine, de la psychologie et de la finance; il a une expérience à large spectre de conseil auprès d'organisations dans la banque, l'industrie pharmaceutique et les organisations gouvernementales.
Son dernier ouvrage en collaboration avec H. Mannila et P. Smyth s'intitule Principles of Data Mining Springer, 2001.
Directeur du MPI Biological Cybernetics, Membre du Comité Scientifique de KXEN
Dr Bernhard Schölkopf est un expert international dans la reconnaissance des formes, l'intelligence artificielle, les machines à vecteurs de support et les algorithmes utilisant la méthode duale à base de noyaux. Bernhard Schölkopf a précédemment travaillé aux AT&T Bell Labs ainsi qu'au centre de recherche de Microsoft.
Sa thèse sur le thème «Support Vector Learning» a été primée par la German Association for Computer Science. En 1998, il a remporté le prix du meilleur projet scientifique du German National Research Center for Computer Science, et en juillet 2001, il devient membre du Max Planck Society et directeur du MPI pour la Cybernétique biologique.
Son dernier ouvrage en collaboration avec A. Smola est Learning with Kernels MIT Press, 2002.
Senior Researcher Scientist
Vladimir Vapnik est l'un des deux auteurs du concept de VC Dimension (Vapnik-Chervonenkis), une approche entièrement nouvelle de la notion de robustesse qui a ouvert un champ théorique nouveau autour de l'apprentissage automatique, devenu par la suite la Théorie Statistique de l'Apprentissage. De 1965 à 1990, Vladimir Vapnik a effectué ses recherches à l'Institut des Sciences du Contrôle à l'Académie des Sciences de Moscou, où il est devenu Directeur du Département de Recherche sur les Algorithmes d'Apprentissage. Il rejoint ensuite alors les AT&T Bell Laboratoires aux Etats Unis.
Vladimir Vapnik exerce depuis plus de 30 ans les fonctions d’enseignement et de recherche fondamentale en statistique théorique et appliquée. Il a publié 7 livres et plus d'une centaine de publications scientifiques. Sa plus grande contribution porte sur le développement d’une théorie générale permettant de minimiser l'espérance du risque d'un modèle à partir de données empiriques, ainsi que la formalisation d'une méthodologie d'apprentissage nouvelle, les Machines à Vecteurs de Support, dotées d'une haute capacité de généralisation du modèle qu'elles définissent.
Sa recherche la plus récente se trouve exposée dans ses derniers ouvrages : « The Nature of Statistical Learning Theory », Springer, New York, 1995 (2nd édition 2000), et Statistical Learning Theory J Wiley, New York, 1998.