Descente de gradient
Un article de Wikipédia, l'encyclopédie libre.
Cet article est une ébauche concernant les mathématiques.
Vous pouvez partager vos connaissances en l’améliorant. (Comment ?).
|
La descente de gradient désigne un algorithme d'optimisation consistant à partir d'un point quelconque de se déplacer dans la direction de la plus forte pente.
Cette direction est calculée à partir du gradient de la fonction (vecteur de dérivées partielles) au point considéré. En effet, le gradient indiquant la direction de plus forte augmentation de la fonction, on suppose que la direction de plus grande pente est la direction opposée.
En général, on applique une recherche linéaire pour calculer le pas optimal sur cette direction.
[modifier] Algorithme
[modifier] Exemple
Application à la fonction :