Performances statistiques de méthodes à noyaux / Sébastien Loustau ; sous la direction de Laurent Cavalier
Type de document : ThèseLangue : français ; anglais.Pays: France.Éditeur : [S.l.] : [s.n.], 2008Description : 1 vol. (136 p.) ; 30 cmISBN: s.n. .Bibliographie : Bibliogr. p. 129-136.Sujet MSC : 62H30, Statistics - Multivariate analysis, Classification and discrimination; cluster analysis; mixture models62G05, Statistics - Nonparametric inference, Nonparametric estimation
68Q32, Computer science - Theory of computing, Computational learning theory
97-02, Research exposition (monographs, survey articles) pertaining to mathematics educationNote de thèse: mathématiques, 28 novembre 2008, Université de Provence, Thèse de doctoratEn-ligne : Tel
Item type | Current library | Call number | Status | Date due | Barcode |
---|---|---|---|---|---|
Thèse | CMI Réserve | Thèses LOU (Browse shelf(Opens below)) | Available | 07582-01 |
Bibliogr. p. 129-136
mathématiques 28 novembre 2008 Université de Provence Thèse de doctorat
Cette thèse se concentre sur le modèle de classification binaire. Etant donné n couples de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) (Xi,Yi), i=1,…,n de loi P, on cherche à prédire la classe Y∈{−1,+1} d'une nouvelle entrée X où (X,Y) est de loi P. La règle de Bayes, notée f∗, minimise l'erreur de généralisation R(f)=P(f(X)≠Y). Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives.
Les méthodes de régularisation ont montrées leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L.Cavalier et Y.Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.
There are no comments on this title.