Indépendance linéaire

Un article de Wikipédia, l'encyclopédie libre.

En algèbre linéaire, étant donnée une famille de vecteurs, les vecteurs de la famille sont linéairement indépendants si toute combinaison linéaire finie nulle de ces vecteurs a nécessairement tous ses coefficients nuls. Cela revient à dire qu'aucun des vecteurs de la famille n'est combinaison linéaire finie des autres. Par exemple dans l'espace vectoriel euclidien \mathbb{R}^3 les trois vecteurs (1,0,0), (0,1,0) et (0,0,1) sont linéairement indépendants, tandis que (2, − 1,1), (1,0,1) et (3, − 1,2) ne sont pas linéairement indépendants. Dans le cas où des vecteurs ne sont pas linéairement indépendants, ils sont dits linéairement dépendants.

Sommaire

[modifier] Définitions

  • Soient n un entier naturel non nul, et v_1, \ldots, v_n n vecteurs d'un espace vectoriel E sur un corps commutatif K. Les vecteurs sont dits linéairement indépendants si
\forall (a_1, \ldots, a_n)\in K^n, \quad a_1.v_1+\ldots+a_n.v_n=0_E\Rightarrow a_1=a_2=\cdots=a_n=0_K.

Autrement dit toute combinaison linéaire nulle des vecteurs v_1, \ldots, v_n a nécessairement des coefficients tous nuls, c'est-à-dire que la seule combinaison linéaire nulle de ces vecteurs est la combinaison linéaire triviale.

La famille (v_1, \ldots, v_n) est alors dite libre.

Dans le cas contraire, les vecteurs sont dits linéairement dépendants et ainsi v_1, \ldots, v_n sont linéairement dépendants si par définition:

\exists (a_1, \ldots, a_n)\in K^n\backslash \{0\}, \quad a_1.v_1+a_2.v_2+\cdots+a_n.v_n=0_E.

Cela signifie qu'il existe des scalaires non tous nuls tels que la combinaison linéaire de v_1, \ldots, v_n associée soit nulle.

Dans ce cas, la famille (v_1, \ldots, v_n) est dite liée.

Remarque: le zéro à droite est le vecteur nul, pas le zéro du corps.

  • Soit E un K-espace vectoriel, et soit (v_i)_{i\in I} une famille de vecteurs de E. La famille est libre (ou les vecteurs de la famille sont linéairement indépendants) si pour toute famille finie (a_j)_{j\in J} d'éléments de K dont l'ensemble d'indices J est inclus dans I,
 \sum_{j \in J} a_j.v_j = 0_E\Rightarrow (\forall j\in J, a_j=0_K) \,.

Soit E un K-espace vectoriel, et soit (v_i)_{i\in I} une famille de vecteurs de E. La famille est liée (ou les vecteurs de la famille sont linéairement dépendants) s'il existe une famille finie (a_j)_{j\in J} d'éléments de K non nuls telle que

 \sum_{j \in J} a_j.v_j = 0_E \,

où l'ensemble d'indices J est un sous-ensemble fini non vide de I.

Nous définirions de même la notion de partie libre ou liée. Une partie A de E est alors libre si et seulement si la famille (a)_{a\in A} est libre et une partie A de E est liée si et seulement si la famille (a)_{a\in A} est liée.

Une famille est liée si et seulement si l'un de ses élément appartient au sous-espace vectoriel engendré par les autres vecteurs de la famille.

Résultat important: Une partie libre de vecteurs d'un espace vectoriel forme une partie basique de l'espace vectoriel engendré par la partie.

[modifier] Exemples

[modifier] Exemple 1

Les vecteurs (1,1) et ( − 3,2) dans \mathbb{R}^2 sont linéairement indépendants.

Démonstration

Soit a et b deux nombres réels tels que

a \left( 1, 1 \right) + b \left( -3, 2 \right) = \left( 0, 0 \right)

Alors

\left( a - 3b, a + 2b\right) = \left(0, 0\right) et
\ a - 3b = 0 et \ a + 2b = 0.

Ces deux relations nous donnent immédiatement a = 0 et b = 0.

Autre démonstration utilisant les déterminants

Une autre méthode utilise le fait que n vecteurs de \mathbb{R}^n sont linéairement dépendants si et seulement si le déterminant de la matrice obtenue en plaçant les composantes des vecteurs en colonne est nulle.

Dans ce cas, la matrice formées par les composantes des vecteurs s'écrit:

A = \begin{pmatrix}1&-3\\1&2\end{pmatrix}. \,

Le déterminant de cette matrice est:

\det(A) = 1\cdot2 - 1\cdot(-3) = 5 \ne 0.

Puisque le déterminant de cette matrice est non nul, les vecteurs (1,1) et ( − 3,2) sont linéairement indépendants. Cette méthode peut seulement être appliquée lorsque le nombre de vecteurs est égal au nombre de composantes des vecteurs.

[modifier] Exemple 2

Soit E=\mathbb{R}^n et considérons les éléments suivants de E:

\begin{matrix}
\mathbf{e}_1 & = & (1,0,0,\ldots,0) \\
\mathbf{e}_2 & = & (0,1,0,\ldots,0) \\
& \vdots \\
\mathbf{e}_n & = & (0,0,0,\ldots,1).\end{matrix}

Alors \mathbf{e}_1, \mathbf{e}_1,\ldots, \mathbf{e}_n sont linéairement indépendants.

Démonstration Supposons que a1, a2, ..., an soient des réels tels que :

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = 0 \,

Donc

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = (a_1 ,a_2 ,\ldots, a_n) \,

Et ainsi

\forall i\in \{1,\ldots, n\}, a_i=0.

[modifier] Exemple 3

Soit \mathcal{F} l'espace vectoriel de toutes les fonctions réelles d'une variable réelle.

Alors les fonctions t\mapsto e^t et t\mapsto e^{2t} de \mathcal{F} sont linéairement indépendantes.

Démonstration

Supposons que a et b soient des nombres réels tels que

a(t\mapsto e^t)+b(t\mapsto e^{2t})=(t\mapsto 0)

Alors

\forall t\in \mathbb{R}, ae^{t}+be^{2t}=0

Nous voulons montrer que a = 0 et b = 0;

Dans ce but, divisons pat et (qui n'est jamais nul) et soustrayons a pour obtenir:

\forall t\in \mathbb{R}, be^t=-a

En d'autres termes, la fonction t\mapsto be^t doit être constante, ce qui ne peut se produire que lorsque b = 0. Il s'ensuit que a est aussi nul.

[modifier] Espace projectif des dépendances linéaires

Une relation de dépendance linéaire de n vecteurs \mathbf{v}_1, \ldots, \mathbf{v}_n peut être représentée par un n-uplet (a_1, \ldots, a_n) de n scalaires, non tous nuls, tels que

a_1 \mathbf{v}_1 + \cdots + a_n \mathbf{v}_n=0. \,

Si une telle relation de dépendance linéaire existe, alors les n vecteurs sont linéairement dépendants. Il est alors possible d'identifier deux relations de dépendances linéaires si l'une est multiple non nul de l'autre relation, parce que dans ce cas les deux correspondent à la même dépendance linéaire des vecteurs entre eux. Sous, cette identification, l'ensemble des n-uplets décrivant les dépendances linéaires des vecteurs \mathbf{v}_1, \ldots, \mathbf{v}_n est un espace projectif.

[modifier] Voir aussi

Articles d'algèbre linéaire générale
vecteur • scalaire • combinaison linéaire • espace vectoriel
famille de vecteurs sous-espace

colinéarité • indépendance linéaire
famille libre ou liée • rang
famille génératrice • base
théorème de la base incomplète

somme • somme directe
supplémentaire
dimension • codimension
droite • plan • hyperplan

morphismes et notions relatives

application linéaire • noyau • conoyau •  lemme des noyaux
pseudo-inverse•  théorème de factorisation • théorème du rang
équation linéaire • système • élimination de Gauss-Jordan
forme linéaire • espace dual • orthogonalité • base duale
endomorphisme • valeur, vecteur, espace propres • spectre
projecteur • symétrie • diagonalisable • nilpotent

en dimension finie

trace • déterminant • polynôme caractéristique
polynôme d'endomorphisme • théorème de Cayley-Hamilton
polynôme minimal • invariants de similitude
réduction • réduction de Jordan • décomposition de Dunford

matrice
enrichissements de structure

norme • produit scalaire • forme quadratique • topologie
orientation • multiplication • crochet de Lie • différentielle

développements

théorie des matrices • théorie des représentations
analyse fonctionnelle • algèbre multilinéaire
module sur un anneau