Stabilité numérique

Un article de Wikipédia, l'encyclopédie libre.

En analyse numérique une branche des mathématiques, la stabilité numérique est une propriété des algorithmes numériques. La définition précise de la stabilité dépend du contexte, mais elle concerne l'exactitude des résultats fournis par un algorithme. Elle décrit comment les erreurs dans les données d'entrée sont propagées à travers un algorithme.

Parfois un calcul peut être réalisé de plusieurs manières, lesquelles sont toutes algébriquement équivalentes et donnent théoriquement le même résultat, mais dans la pratique elles donnent des résultats différents car elles ont différents niveaux de stabilité numérique. Une des tâches communes de l'analyse numérique est d'essayer de trouver les algorithmes les plus robustes, c'est-à-dire ayant la meilleure stabilité numérique.

Dans une méthode stable, les erreurs restent minimes et les résultats produits sont conformes à ceux attendus. Dans une méthode instable, les erreurs de calcul sont amplifiées par le traitement et altèrent le résultat final. Des méthodes instables produisent rapidement des résultats abhérants et sont inutiles pour le traitement numérique.

Sommaire

[modifier] Stabilité inverse

Considérons un problème résolu au moyen d'un algorithme numérique considéré comme une fonction f qui associe à la donnée x la solution y. Le résultat réel noté y * , s'écartera en général de la solution exacte. Les principales causes sont les erreurs d'arrondi, les erreurs de troncature et les erreurs de donnée. L'erreur aval d'un algorithme est la différence entre le résultat réel et la solution exacte. L'erreur amont ou erreur inverse est le plus petit Δx tels que f\left(x+\Delta x\right)=y^*; en d'autres termes, l'erreur amont nous indique de quelle façon le problème est réellement résolu par l'algorithme. Les erreurs amont et aval sont reliées par le nombre condition: l'erreur aval possède tout au plus le même ordre de grandeur que le nombre condition multiplié par l'ordre de grandeur de l'erreur amont.

L'algorithme est dit inversement stable ou stable en amont si l'erreur amont est assez petite pour toutes les données x. Bien sûr « petit » est un terme relatif, et sa définition dépendra du contexte. Souvent il est exigé que l'erreur soit du même ordre que..., ou seulement plus grande que ... de quelques ordres de grandeur, à une unité près.

Dans beaucoup de situations, il est plus naturel de considérer l'erreur relative

 \frac{|x+\Delta x|}{|x|}

à la place de l'erreur absolue Δx.

[modifier] Stabilité mixte

[modifier] Stabilité des méthodes numériques de résolution des équations différentielles

[modifier] Références

  • (en) Nicholas J. Higham, Accuracy and Stability of Numerical Algorithms, Society of Industrial and Applied Mathematics, Philadelphia, 1996. ISBN 0-89871-355-2.