Colloque : L'APPRENTISSAGE STATISTIQUE, THEORIE ET APPLICATIONS
  KXEN logo
 14-15 Novembre 2002
CNAM Paris

Biographies des conférenciers :

Jerome H. Friedman (Stanford University, Palo Alto - Etats-Unis)

Professeur du Département de Statistique de Stanford University, et Leader du Computation Research Group du Stanford Linear Accelerator Center

Jérôme Friedman apporte depuis 25 ans une contribution remarquable dans de nombreux sujets et méthodologies autour du Data Mining et de la Théorie de l’Apprentissage. En 1977, comme directeur du Groupe d'Analyse Numérique du SLAC (L'accélérateur linéaire de Stanford) , il est co-auteur de différents algorithmes rapides de classification basés sur des méthodes de plus proches voisins. Lors des sept années qui suivent, il travailla avec Leo Breiman, Richard Olshen et Charles Stone pour jeter les bases fondamentales d'une méthodologie centrale sur les arbres de décision, rassemblée dans l'ouvrage «Classification and Decision Trees» (1984), et donnant lieu à un produit commercial : CART(R). Jérôme Friedman s'est vu attribuer en 2002 le prix SIGKDD de l'Innovation.

Son dernier ouvrage écrit avec T. Hastie et R. Tibshirani est The Elements of Statistical Learning Springer 2001.

[haut de page]

David J. Hand (Imperial College, Londres - Royaume Uni)

Professeur de Statistique dans le Département Mathématiques de l'Imperial College

La recherche de David Hand s'étend sur un domaine vaste, comprenant la statistique multivariée, les méthodes de classification, la reconnaissance et la détection de formes, l'analyse des interfaces entre les mondes de la statistique et de l'informatique, la mise en forme des fondements statistiques. David Hand s'intéresse à des applications dans les mondes de la médecine, de la psychologie et de la finance; il a une expérience à large spectre de conseil auprès d'organisations dans la banque, l'industrie pharmaceutique et les organisations gouvernementales.

Son dernier ouvrage en collaboration avec H. Mannila et P. Smyth s'intitule Principles of Data Mining Springer, 2001.

[haut de page]

Bernhard Schölkopf (Max Planck Society ,Tübingen - Allemagne)

Directeur du MPI Biological Cybernetics, Membre du Comité Scientifique de KXEN

Dr Bernhard Schölkopf est un expert international dans la reconnaissance des formes, l'intelligence artificielle, les machines à vecteurs de support et les algorithmes utilisant la méthode duale à base de noyaux. Bernhard Schölkopf a précédemment travaillé aux AT&T Bell Labs ainsi qu'au centre de recherche de Microsoft.

Sa thèse sur le thème «Support Vector Learning» a été primée par la German Association for Computer Science. En 1998, il a remporté le prix du meilleur projet scientifique du German National Research Center for Computer Science, et en juillet 2001, il devient membre du Max Planck Society et directeur du MPI pour la Cybernétique biologique.

Son dernier ouvrage en collaboration avec A. Smola est Learning with Kernels MIT Press, 2002.

[haut de page]

Vladimir Vapnik (NEC Research Institute, Princeton - Etats-Unis)

Senior Researcher Scientist

Vladimir Vapnik est l'un des deux auteurs du concept de VC Dimension (Vapnik-Chervonenkis), une approche entièrement nouvelle de la notion de robustesse qui a ouvert un champ théorique nouveau autour de l'apprentissage automatique, devenu par la suite la Théorie Statistique de l'Apprentissage. De 1965 à 1990, Vladimir Vapnik a effectué ses recherches à l'Institut des Sciences du Contrôle à l'Académie des Sciences de Moscou, où il est devenu Directeur du Département de Recherche sur les Algorithmes d'Apprentissage. Il rejoint ensuite alors les AT&T Bell Laboratoires aux Etats Unis.

Vladimir Vapnik exerce depuis plus de 30 ans les fonctions d’enseignement et de recherche fondamentale en statistique théorique et appliquée. Il a publié 7 livres et plus d'une centaine de publications scientifiques. Sa plus grande contribution porte sur le développement d’une théorie générale permettant de minimiser l'espérance du risque d'un modèle à partir de données empiriques, ainsi que la formalisation d'une méthodologie d'apprentissage nouvelle, les Machines à Vecteurs de Support, dotées d'une haute capacité de généralisation du modèle qu'elles définissent.

Sa recherche la plus récente se trouve exposée dans ses derniers ouvrages : « The Nature of Statistical Learning Theory », Springer, New York, 1995 (2nd édition 2000), et Statistical Learning Theory J Wiley, New York, 1998.

[haut de page]