Performances statistiques de méthodes à noyaux / Sébastien Loustau ; sous la direction de Laurent Cavalier

Auteur principal : Loustau, Sébastien, 1982-, AuteurAuteur secondaire : Cavalier, Laurent, 1971-2014, Directeur de thèseAuteur secondaire collectivité : Université de Provence, Etablissement de soutenanceType de document : ThèseLangue : français ; anglais.Pays: France.Éditeur : [S.l.] : [s.n.], 2008Description : 1 vol. (136 p.) ; 30 cmISBN: s.n. .Bibliographie : Bibliogr. p. 129-136.Sujet MSC : 62H30, Statistics - Multivariate analysis, Classification and discrimination; cluster analysis; mixture models
62G05, Statistics - Nonparametric inference, Nonparametric estimation
68Q32, Computer science - Theory of computing, Computational learning theory
97-02, Research exposition (monographs, survey articles) pertaining to mathematics education
Note de thèse: mathématiques, 28 novembre 2008, Université de Provence, Thèse de doctoratEn-ligne : Tel
Tags from this library: No tags from this library for this title. Log in to add tags.
Holdings
Item type Current library Call number Status Date due Barcode
Thèse Thèse CMI
Réserve
Thèses LOU (Browse shelf(Opens below)) Available 07582-01

Bibliogr. p. 129-136

mathématiques 28 novembre 2008 Université de Provence Thèse de doctorat

Cette thèse se concentre sur le modèle de classification binaire. Etant donné n couples de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) (Xi,Yi), i=1,…,n de loi P, on cherche à prédire la classe Y∈{−1,+1} d'une nouvelle entrée X où (X,Y) est de loi P. La règle de Bayes, notée f∗, minimise l'erreur de généralisation R(f)=P(f(X)≠Y). Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives.

Les méthodes de régularisation ont montrées leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L.Cavalier et Y.Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.

There are no comments on this title.

to post a comment.