Équation linéaire

Un article de Wikipédia, l'encyclopédie libre.

Une équation est dite linéaire quand elle s'exprime à l'aide d'une application linéaire. Elle se présente sous la forme u(x)=b, où u est une application linéaire entre deux espaces vectoriels E et F, b est un élément donné de F. On recherche l'inconnue x dans E.

La linéarité permet d'effectuer des sommes et des combinaisons linéaires de solutions, ce qui est connu en physiques sous le nom de principe de superposition. Les espaces de solutions ont des structures d'espaces vectoriels ou affines. Les méthodes de l'algèbre linéaire s'appliquent et peuvent considérablement aider à la résolution.

Sommaire

[modifier] Résolution générale

Soient u application linéaire de E dans F, et b appartenant à F. On considère l'équation linéaire u(x)=b.

L'équation u(x)=0, dite équation homogène associée a bien entendu pour solution le noyau de u, qui est un sous-espace vectoriel de E.

L'équation complète u(x)=b

  • a des solutions si et seulement si b\in {\rm Im } u
  • dans ce cas l'espace des solutions est un espace affine, dirigé par le noyau. En notant x0 une solution particulière de l'équation complète, l'espace solution est de la forme
S=x_0+\ker u=\{x_0+k, k\in \ker u\}

Ce qu'on retient souvent sous la forme « la solution de l'équation complète est la somme d'une solution particulière et de la solution générale de l'équation homogène associée ».

[modifier] Relations image-noyau

La résolution de l'équation revient donc à la détermination des espaces image et noyau de u. Le noyau est souvent plus facile à calculer que l'image, mais celle-ci peut être connue dans de nombreux cas grâce au théorème suivant.

Théorème d'isomorphisme des supplémentaires du noyau

Soit u application linéaire de E dans F. Soit H un supplémentaire du noyau de u. Alors H est isomorphe à l'image de u. Plus précisément, la restriction de u à H induit un isomorphisme de H sur Im u.

Corollaire : relation rang-noyau

Avec les mêmes notations si en outre l'espace de départ E est de dimension finie

 \dim \ker u = \dim E - \dim {\rm Im } u

Cette formule est parfois appelée formule du rang. Ou même, plus généralement, si le noyau est de codimension finie, cette codimension est égale à la dimension de l'image.

[modifier] Superposition de solutions

Si on additionne une solution de u(x)=b et une solution de u(x)=c, on obtient une solution de l'équation u(x)=b+c. On peut plus généralement effectuer des combinaisons linéaires de solutions, ce qui porte souvent le nom de superposition en physiques.

Ainsi si on doit résoudre u(x)=b pour un vecteur b général, on constate qu'il suffit d'effectuer la résolution pour les vecteurs b d'une base de F.

On peut essayer d'étendre la méthode de superposition à des « sommes infinies », c'est-à-dire des séries. Mais il faut alors justifier qu'on peut effectuer un passage à la limite.

[modifier] Exemple d'application : interpolation de Lagrange

Icône de détail Article détaillé : interpolation lagrangienne.

Soient n+1 scalaires distincts x0, ..., xn et n+1 scalaires y0, ..., yn. La recherche des polynômes P tels que pour tout i, P(xi)=yi est appelée problème d'interpolation de Lagrange.

Il s'agit d'un problème linéaire avec

u:\begin{matrix}\mathbb{K}[X]& \longrightarrow &  \mathbb{K}^{n+1}\\
P&\longmapsto & (P(x_0), \dots, P(x_n))\end{matrix}\qquad b=(y_0, \dots, y_n)

Le noyau de u est l'ensemble des polynômes nuls en x0, ..., xn

\ker u = \{(x-x_0)\dots(x-x_n)Q(x), Q\in \mathbb{K}(X)\}=(x-x_0)\dots(x-x_n)\mathbb{K}(X)

Il admet pour supplémentaire l'espace \mathbb{K}_n(X) des polynômes de degré inférieur ou égal à n.

En conséquence l'image de u est de dimension n+1, ce qui prouve que u est surjective et que le problème a toujours une solution. En outre

u_1:\begin{matrix}\mathbb{K}_n[X]& \longrightarrow &  \mathbb{K}^{n+1}\\
P&\longmapsto & (P(x_0), \dots, P(x_n))\end{matrix}

est un isomorphisme d'espaces vectoriels.

On en déduit les résultats d'existence et d'unicité suivants

  • le problème d'interpolation de Lagrange admet toujours des polynômes solutions
  • un seul des polynômes solutions est de degré inférieur ou égal à n
  • les autres s'en déduisent par ajout d'un multiple du polynôme (X-x0). ... . (X-xn)

Enfin l'isomorphisme u1 peut être utilisé pour obtenir explicitement le polynôme d'interpolation de plus bas degré. Cela revient à déterminer l'antécédent de b par u1. Par linéarité, il suffit de déterminer les antécédents des vecteurs de la base canonique de \mathbb{K}^{n+1}.

Il est donc naturel de faire intervenir le problème d'interpolation élémentaire : trouver

L_j \in \mathbb{K}_n[X]\hbox{ tel que } \forall i,\, 0\leq i \leq n , \, L_j(i)=\delta_{i,j}

On aboutit alors naturellement à l'expression suivante

L_j(X) := \prod_{0\leq i\leq n, i\neq j} \frac{X-x_i}{x_j-x_i}

Et enfin pour le problème d'interpolation complet

P=\sum_{i=0}^n b_j L_j

[modifier] Dans les équations algébriques

Une équation linéaire à une inconnue x est une équation de la forme ax+b=0 \,a et b sont des réels (ou des complexes). Les réels a et b sont appelés des coefficients, a est le coefficient devant x et b le coefficient constant. On appelle aussi cette équation, une équation du premier degré à une inconnue.

Une équation linéaire à plusieurs inconnues x, y, z ...est une équation de la forme ax + by + cz + dt... = k   \,a, b, c, ... k sont des réels (ou des complexes). De même ici, a est le coefficient devant x, b le coefficient devant y, ..., k le coefficient constant.

L'ensemble des solutions d'une équation linéaire à n inconnues dont au moins un coefficient autre que le coefficient constant est non nul, est un sous-espace affine de dimension n - 1.

Cas des équations linéaires homogène

Les équations linéaires homogènes sont celles dont le coefficient constant est nul.

Propriété: si (x, y, z, ....) et (x', y', z', ...) sont deux solutions d'une équation linéaire homogène alors il en est de même de (kx, ky, kz, ...) et (x + x', y + y', z + z', ...).

L'ensemble des solutions d'une équation linéaire homogène à n inconnues dont un coefficient au moins est non nul est un sous-espace vectoriel de dimension n - 1.

Voir aussi : Système d'équations linéaires

[modifier] Dans les équations différentielles

Icône de détail Article détaillé : équation différentielle linéaire.

On parlera ici de fonctions définies sur \mathbb R ou sur \mathbb C à valeurs dans \mathbb R ou dans \mathbb C.

Une équation différentielle linéaire du premier ordre d'inconnue y est une équation de la forme ay + by' = ca, b et c sont des fonctions numériques.

Une équation différentielle linéaire d'ordre n et d'inconnue y est une équation de la forme

a_0 y + a_1 y' + a_2 y'' + ... + a_n y^{(n)}= a_{n+1} \,

a_0 \,, a_1 \,, ... a_n \,, a_{n+1} \, sont des fonctions numériques et y(k) la dérivée d'ordre k de y.

Si a_0 \,, a_1 \,, ...a_n \,, a_{n+1} \, sont des constantes, on parle d'équation linéaire à coefficients constants.

Cas des équations homogènes

Si an + 1 = 0 on parle d'équation linéaire homogène.

Par exemple l'équation différentielle y" + y= 0 est une équation différentielle linéaire homogène à coefficients constants.

Si y1 et y2 sont solutions d'une équation différentielle linéaire homogène alors il en est de même de ky1 et de y1 + y2;

Si on connaît une solution particulière d'une équation différentielle linéaire, la solution générale est formée de la somme de cette solution particulière avec la solution générale de l'équation linéaire homogène associée.

[modifier] Suites récurrentes linéaires

Icône de détail Article détaillé : Suite récurrente linéaire.

[modifier] Voir aussi

Articles d'algèbre linéaire générale
vecteur • scalaire • combinaison linéaire • espace vectoriel
famille de vecteurs sous-espace

colinéarité • indépendance linéaire
famille libre ou liée • rang
famille génératrice • base
théorème de la base incomplète

somme • somme directe
supplémentaire
dimension • codimension
droite • plan • hyperplan

morphismes et notions relatives

application linéaire • noyau • conoyau •  lemme des noyaux
pseudo-inverse•  théorème de factorisation • théorème du rang
équation linéaire • système • élimination de Gauss-Jordan
forme linéaire • espace dual • orthogonalité • base duale
endomorphisme • valeur, vecteur, espace propres • spectre
projecteur • symétrie • diagonalisable • nilpotent

en dimension finie

trace • déterminant • polynôme caractéristique
polynôme d'endomorphisme • théorème de Cayley-Hamilton
polynôme minimal • invariants de similitude
réduction • réduction de Jordan • décomposition de Dunford

matrice
enrichissements de structure

norme • produit scalaire • forme quadratique • topologie
orientation • multiplication • crochet de Lie • différentielle

développements

théorie des matrices • théorie des représentations
analyse fonctionnelle • algèbre multilinéaire
module sur un anneau