Théorème du rang

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques, le théorème du rang de l'algèbre linéaire, lie le rang et la dimension du noyau d'une application linéaire définie sur un espace vectoriel de dimension finie. Soient E et F deux espaces vectoriels sur un corps K. On suppose E de dimension finie. Soit f\in\mathcal{L}(E,F) une application linéaire. Alors l'image de f est de dimension finie et

{\rm rg } f+{\rm dim Ker }f={\rm dim }E\,,

rgf désigne la dimension de l'image de f.

Pour démontrer le théorème, on peut partir d'une base du noyau de f, et la compléter en une base de E. Il n'est alors pas difficile de montrer que f envoie bijectivement cette famille de vecteurs « nouvellement » ajoutés sur une base de l'image de f.

Cas particulier des endomorphismes:

Soit f une application linéaire d'un espace vectoriel de dimension finie E dans lui-même. On a la relation:

{\rm dim Im }f+{\rm dim Ker }f={\rm rg}(f)+{\rm dim Ker }f=\dim E\,.

Cas des matrices

Le théorème du rang peut s'écrire pour les matrices. Si A est une matrice (m,n) sur un corps \mathbb{K}, alors

rgA + dim(KerU) = n

U est l'application linéaire de \mathbb{K}^n\rightarrow \mathbb{K}^m canoniquement associée à la matrice A.

Certains définissent le noyau d'une matrice de la manière suivante:

\ker f :=\{X\in\mathcal{M}_{n,1}(\mathbb{K}) \mid AX=0\},

qui est un sous-espace vectoriel de \mathcal{M}_{n,1}(\mathbb{K}) de même dimension que KerU.

Le théorème du rang s'écrit alors

rgA + dim(KerA) = n

[modifier] Autres formulations et généralisations

Ce théorème est une forme du premier théorème d'isomorphisme de l'algèbre dans le cas des espaces vectoriels.

Dans un langage plus moderne, le théorème peut être énoncé de la manière suivante: si

0 \rightarrow D \rightarrow E \rightarrow F \rightarrow 0

est une suite exacte courte d'espaces vectoriels, alors

dim(D) + dim(F) = dim(E)

Ici F joue le rôle de Imf et D celui de Kerf.

En dimension finie, cette formulation peut être généralisée : si

0 \rightarrow E_1 \rightarrow E_2 \rightarrow \cdots \rightarrow E_r \rightarrow 0

est une suite exacte d'espaces vectoriels de dimension finie, alors

\sum_{i=1}^r (-1)^i\dim(E_i) = 0.

Le théorème du rang pour des espaces vectoriels de dimension finie peut aussi être formulé en termes d'indice d'application linéaire. L'indice d'une application linéaire f:E\rightarrow F, où E et F sont des espaces vectoriels de dimension finie, est défini par

indicef = dim(Kerf) − dim(Cokerf) où Coker désigne le conoyau de f.

Intuitivement, Kerf est le nombre de solutions indépendantes x de l'équation f(x) = 0, et dim(Cokerf) est le nombre de restrictions indépendantes qui doivent être mises à la place de y pour rendre l'équation f(x) = y résoluble. Le théorème du rang pour des espaces vectoriels de dimension finie est équivalent à la proposition

indicef = dim(E) − dim(F)

Nous voyons que nous pouvons facilement déterminer l'indice d'une application linéaire f à partir des espaces impliqués, sans nul besoin d'étudier f en détail. Cela se remarque également dans un résultat beaucoup plus profond: le théorème de l'indice d'Atiyah-Singer qui affirme que l'indice de certains opérateurs différentiels peut être obtenu à partir de la géométrie des espaces impliqués.

Articles d'algèbre linéaire générale
vecteur • scalaire • combinaison linéaire • espace vectoriel
famille de vecteurs sous-espace

colinéarité • indépendance linéaire
famille libre ou liée • rang
famille génératrice • base
théorème de la base incomplète

somme • somme directe
supplémentaire
dimension • codimension
droite • plan • hyperplan

morphismes et notions relatives

application linéaire • noyau • conoyau •  lemme des noyaux
pseudo-inverse•  théorème de factorisation • théorème du rang
équation linéaire • système • élimination de Gauss-Jordan
forme linéaire • espace dual • orthogonalité • base duale
endomorphisme • valeur, vecteur, espace propres • spectre
projecteur • symétrie • diagonalisable • nilpotent

en dimension finie

trace • déterminant • polynôme caractéristique
polynôme d'endomorphisme • théorème de Cayley-Hamilton
polynôme minimal • invariants de similitude
réduction • réduction de Jordan • décomposition de Dunford

matrice
enrichissements de structure

norme • produit scalaire • forme quadratique • topologie
orientation • multiplication • crochet de Lie • différentielle

développements

théorie des matrices • théorie des représentations
analyse fonctionnelle • algèbre multilinéaire
module sur un anneau