Arithmétique multiprécision

Un article de Wikipédia, l'encyclopédie libre.

L'arithmétique multiprécision désigne l'ensemble des techniques mises en œuvre pour manipuler dans un programme informatique des nombres (entiers, rationnels, ou flottants principalement) de taille arbitraire — par opposition aux nombres « machine » auxquels s'appliquent les opérations fournies par le processeur. La taille dont il est question est le nombre de chiffres utilisés pour représenter le nombre : ainsi, en arithmétique multiprécision, il n'est guère limité que par la mémoire disponible, tandis que les opérations arithmétiques des processeurs usuels portent sur des entiers et des flottants d'un à quelques mots machines.

De nombreux algorithmes ont été développés pour effectuer efficacement les opérations usuelles sur des nombres comportant un très grand nombre de chiffres. Les algorithmes de multiplication rapide de grands entiers sont au cœur de ce domaine. En effet, de nombreuses opérations plus complexes, à commencer par la division, utilisent la multiplication d'entiers comme brique de base, et l'efficacité des algorithmes utilisés repose de façon essentielle sur celle de la multiplication sous-jacente.

Sur le plan technique, diverses bibliothèques fournissent des structures de données et des opérations efficaces pour le calcul multiprécision. La plus répandue est probablement la GNU Multiprecision Library.

[modifier] Références

  • Knuth, Donald, The Art of Computer Programming, ISBN 0-201-89684-2, Volume 2: Seminumerical Algorithms, Section 4.3.1: The Classical Algorithms