Descente de gradient

Un article de Wikipédia, l'encyclopédie libre.

La descente de gradient désigne un algorithme d'optimisation consistant à partir d'un point quelconque de se déplacer dans la direction de la plus forte pente.

Cette direction est calculée à partir du gradient de la fonction (vecteur de dérivées partielles) au point considéré. En effet, le gradient indiquant la direction de plus forte augmentation de la fonction, on suppose que la direction de plus grande pente est la direction opposée.

En général, on applique une recherche linéaire pour calculer le pas optimal sur cette direction.

[modifier] Algorithme

Image:algo_gradient.jpg

[modifier] Exemple

Application à la fonction f(x,y)=\sin\left(\tfrac{1}{2} x^2 - \tfrac{1}{4} y^2 + 3 \right) \cos(2 x+1-e^y) :

Vue en plan avec lignes de niveaux.
Vue en plan avec lignes de niveaux.
Vue en trois dimensions.
Vue en trois dimensions.

[modifier] Voir aussi