Réduction de Gauss
Un article de Wikipédia, l'encyclopédie libre.
Sommaire |
[modifier] Introduction
La réduction de Gauss est un algorithme permettant de représenter toute forme quadratique sur un espace vectoriel de dimension finie (sur un corps commutatif de caractéristique différente de 2) comme une combinaison linéaire de carrés de formes linéaires indépendantes (on parle en abrégé de "décomposition en carrés")
La méthode employée rappelle (avec une petite subtilité supplémentaire) la méthode de résolution de l'équation du second degré
[modifier] Enoncé commenté
Pour toute forme quadratique sur un espace vectoriel de dimension finie, il existe un entier r, des formes linéaires indépendantes, et des éléments du corps de base, tous non nuls, tels que .
En langage matriciel, cela signifie que toute matrice symétrique est congruente à une matrice diagonale, c'est à dire que pour toute matrice symétrique d'ordre n, il existe une matrice inversible telle que soit diagonale (les coefficents diagonaux sont les , complétés par des zéros si r < n).
L'entier r est le rang de la forme quadratique. C'est aussi le rang de n'importe quelle matrice représentant cette forme dans une base.
Contrairement aux valeurs propres, les ne sont pas uniques, même à permutation près.
[modifier] Preuve
Dans une base , la forme s'écrit . On procède par récurrence sur la dimension. En dimension 1, on a tout simplement , et il n'y a rien à montrer.
Supposons donc la dimension supérieure à 1. On distingue deux cas.
a) Si l'un des coefficients aii est non nul, on peut, quitte à permuter les vecteurs de base, supposer que . On écrit séparément les termes où x1 intervient :
On applique à ces derniers la technique bien connue pour la résolution de l'équation du second degré :
On obtient ainsi que
où est un polynôme homogène de degré 2 par rapport à , autrement dit une forme quadratique sur l'espace vectoriel engendré par . L'hypothèse de récurrence nous dit que , où les sont des combinaisons linéaires de x2,...xn, d'où le résultat avec et
b) Si tous les aii sont nuls et non nulle, il existe des entiers tels que . Comme dans le premier cas, on peut supposer qu'il s'agit de a12. On écrit
La somme des termes en ou s'écrit aussi
On voit que est de la forme
où ne dépend que de . On conclut en appliquant l'hypothèse de récurrence à , et en remarquant que
[modifier] Exemple
Soit (disons sur ). On écrit
Cela illustre le fait que l'on est loin d'avoir l'unicité (permuter les !)
[modifier] Applications
Si le corps de base est ou plus généralement un corps algébriquement clos, on voit qu'il existe r formes linéaires indépendantes telles que . Autrement dit, sous l'action du groupe linéaire, les formes quadratiques sont classées par leur rang. En langage matriciel, deux matrices symétriques complexes sont congruentes si et seulement si elles sont même rang.
Si le corps de base est , il faut prendre en compte le signe des . Il existe un entier s (inférieur ou égal à r) tel que . Cet entier ne dépend pas de la décomposition (loi d'inertie de Sylvester). Si r=s=n, la forme quadratique est définie positive, si r=n et s=0 elle est définie négative.
Par contre, si le corps de base est le corps des rationnels ou un corps fini, la réduction de Gauss ne fait qu'effleurer la classification des formes quadratiques.
[modifier] Liens internes
[modifier] Voir aussi
Marcel BERGER, Géométrie