Théorie de Vapnik-Chervonenkis
Un article de Wikipédia, l'encyclopédie libre.
Cet article ou cette section ne cite pas suffisamment ses sources. (date inconnue)
Son contenu est donc sujet à caution. Wikipédia doit être fondée sur des sources fiables et indépendantes. Améliorez cet article en liant les informations à des sources, au moyen de notes de bas de page (voir les recommandations).
|
Cet article est une ébauche concernant l’informatique.
Vous pouvez partager vos connaissances en l’améliorant. (Comment ?).
|
La forme ou le fond de cet article est à vérifier.
Améliorez-le, ou discutez des points à vérifier. Si vous venez d’apposer le bandeau, merci d’indiquer ici les points à vérifier.
|
La théorie de Vapnik-Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960-1990 par Vladimir Vapnik et Alexey Chervonenkis. C'est une forme de théorie de l'apprentissage automatique, qui tente d'expliquer l'apprentissage d'un point de vue statistique.
La théorie VC est liée à la théorie d'étude statistique et aux processus empiriques. Richard M. Dudley, R.S. Wenocur et Vladimir Vapnik lui-même, entre autres, appliquèrent cette théorie aux processus empiriques.
Cette théorie est basée sur quatre questions fondamentales :
- Théorie d'uniformité des apprentissages
- Quelles sont des conditions (nécessaires et suffisantes) pour l'uniformité d'un apprentissage basé sur le principe empirique de minimisation du risque ?
- Théorie du taux de convergence des apprentissages
- Quelle est la vitesse de la convergence de l'apprentissage ?
- Théorie du contrôle de la capacité d'apprentissage automatique
- Comment commander le taux de convergence (la capacité de généralisation) de l'apprentissage automatique ?
- Théorie de construction des machines à apprentissage automatique
- Comment créer des algorithmes qui peuvent commander cet apprentissage ?
La théorie VC et la dimension VC sont indissociables dans la théorie des processus empiriques.
La dernière partie de la théorie présente un algorithme bien connu dans le monde de l'intelligence artificielle : la Machine à vecteurs de support.
La théorie VC contient des concepts importants tels que la dimension VC et la minimisation structurale du risque. Cette théorie est directement liée à certains sujets mathématiques :
[modifier] Liens internes
[modifier] Sources
- (en) Cet article est partiellement ou en totalité issu d’une traduction de l’article de Wikipédia en anglais intitulé « Vapnik-Chervonenkis theory ».
- The Nature of Statistical Learning Theory