Rang (mathématiques)

Un article de Wikipédia, l'encyclopédie libre.

En algèbre linéaire, le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. On peut étendre la notion de rang aux matrices et aux endomorphismes.

Sommaire

[modifier] Rang d'une matrice

Le rang d'une matrice A, noté rg A, est

  • le nombre maximal de vecteurs lignes (ou colonnes) linéairement indépendants,
  • la dimension du sous-espace vectoriel engendré par les vecteurs lignes (ou colonnes) de A,
  • le plus grand des ordres des matrices carrées inversibles extraites de A,
  • la taille du plus grand mineur non nul de A,
  • la plus petite des tailles des matrices B et C dont le produit est égal à A,

tous ces nombres étant égaux.

On peut déterminer le rang en procédant à une élimination via la méthode de Gauss-Jordan et en examinant la forme échelonnée obtenue de cette manière.

[modifier] Exemple

Soit la matrice suivante :


  A :=
  \begin{pmatrix}
    1 & 0 & 2 & 3 \\
    2 & 0 & 4 & 6 \\
    0 & 2 & 2 & 0 \\
    1 & 2 & 4 & 3 \\
  \end{pmatrix}

On voit que la 2e ligne est le double de la première ligne. On note également que la 4e ligne est égale à la somme de la première avec la troisième. Les lignes 1 et 3 sont ainsi linéairement indépendantes. Le rang de cette matrice est donc égal à 2. Une autre manière plus directe est de calculer la forme échelonnée réduite de cette matrice. Cette nouvelle matrice a le même rang que la matrice originale, et le rang correspond au nombre de lignes qui sont non nulles. Dans ce cas, nous avons deux lignes qui correspondent à ce critère.


  A =
  \begin{pmatrix}
    1 & 0 & 2 & 3 \\
    0 & 1 & 1 & 0 \\
    0 & 0 & 0 & 0 \\
    0 & 0 & 0 & 0 \\
  \end{pmatrix}


On remarque que le rang d'une matrice donnée est égale au rang de sa transposée. Pour l'exemple, prenons la transposée de la matrice A ci-dessus :


  \begin{pmatrix}
    1 & 2 & 0 & 1 \\
    0 & 0 & 2 & 2 \\
    2 & 4 & 2 & 4 \\
    3 & 6 & 0 & 3 \\
  \end{pmatrix}
On voit que la 4ème ligne est triple de la première, et que la troisième ligne moins la deuxième est double de la première.


Après échelonnement, on obtient donc :


  \begin{pmatrix}
    1 & 2 & 0 & 1 \\
    0 & 0 & 1 & 1 \\
    0 & 0 & 0 & 0 \\
    0 & 0 & 0 & 0 \\
  \end{pmatrix}
Et le rang de cette matrice est bien 2.

[modifier] Rang d'une application linéaire

Étant donnés deux espaces vectoriels E, F de dimensions finies et une application linéaire f de E dans F, le rang de f est :

  • La dimension de l'image de f.
  • Le rang de la matrice associée à f dans deux bases de E et F, car le rang ne dépend pas des bases choisies pour représenter f. En effet, la multiplication à droite ou à gauche par une matrice inversible ne modifie pas le rang, ce qui amène rg(P − 1AQ) = rg(A), où A est la matrice représentant f dans un premier couple de bases, et P,Q des matrices de changement de base.

[modifier] Rang d'une famille de vecteurs

  • Pour une famille, son rang correspond au nombre maximal de vecteur que peut contenir une sous - famille libre de cette famille
  • On peut aussi définir le rang d'une famille u par : rg (u) = dim(Vect(u))

[modifier] Propriétés

Soit A une matrice

  • Inégalité de Frobenius : rg(AB)+rg(BC)\leqrg(ABC)+rg(B)
  • Théorème du rang : f une application linéaire de E dans F, dim(E)=rg(f)+dim(Ker(f))
  • Transposée : rg(A)=rg(tA)
  • Composition : rg(AB)\leqmin(rg(A),rg(B))
  • Le rang d'une famille de vecteurs ne change pas lorsqu'on multiplie un de ses vecteurs par un scalaire non nul, lorsqu'on ajoute à un des vecteurs une combinaison linéaire des autres vecteurs, ou lorsqu'on échange deux vecteurs.
  • Deux matrices sont équivalentes si et seulement si elles ont le même rang.


Articles d'algèbre linéaire générale
vecteur • scalaire • combinaison linéaire • espace vectoriel
famille de vecteurs sous-espace

colinéarité • indépendance linéaire
famille libre ou liée • rang
famille génératrice • base
théorème de la base incomplète

somme • somme directe
supplémentaire
dimension • codimension
droite • plan • hyperplan

morphismes et notions relatives

application linéaire • noyau • conoyau •  lemme des noyaux
pseudo-inverse•  théorème de factorisation • théorème du rang
équation linéaire • système • élimination de Gauss-Jordan
forme linéaire • espace dual • orthogonalité • base duale
endomorphisme • valeur, vecteur, espace propres • spectre
projecteur • symétrie • diagonalisable • nilpotent

en dimension finie

trace • déterminant • polynôme caractéristique
polynôme d'endomorphisme • théorème de Cayley-Hamilton
polynôme minimal • invariants de similitude
réduction • réduction de Jordan • décomposition de Dunford

matrice
enrichissements de structure

norme • produit scalaire • forme quadratique • topologie
orientation • multiplication • crochet de Lie • différentielle

développements

théorie des matrices • théorie des représentations
analyse fonctionnelle • algèbre multilinéaire
module sur un anneau