Sous-sections


Matrice d'une application linéaire

Soient X et Y deux espaces vectoriels de dimension respective n et m.
Soient ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ et ($ \bf{y}{_{1},\dots,\vec{y}_{m})$ deux bases respectives de X et Y. Toute application linéaire A$ \mathscr$L(X, Y) détermine un ensemble de coefficients notés aij tels que

A($\displaystyle \bf{x}{_{j}) = \sum_{i=1}^{m} a_{ij}\vec{y}_{i}\qquad (1\leq j\leq n).$ (3.1)

Il est usuel et commode de représenter ces coefficients dans un tableau rectangulaire de m lignes et de n colonnes appelé matrice m×n noté M(A)3.4, on parle alors de représentation matricielle de l'application linéaire :

M(A) = $\displaystyle \begin{pmatrix}
a_{11}& a_{12} & \dots & a_{1n} \\
a_{21}& a_{2...
...\dots & \dots & \dots & \dots \\
a_{m1}& a_{m2}& \dots & a_{mn}
\end{pmatrix}$.

Remarquons que les coordonnées aij du vecteur A($ \bf{x}{_{j})$ apparaissent dans la jème colonne de la matrice M(A). Les vecteurs A($ \bf{x}{_{j})$ sont donc parfois appelés vecteurs colonnes de la matrice M(A).

On appelle rang de A, la dimension de l'image de X par A. Il est donc égal à la dimension de l'espace engendré par le vecteurs colonnes de M(A).

A l'aide des coefficients de la matrice on peut déterminer l'image de tout vecteur $ \bf{x}{$ de X par A. En effet, si $ \bf{x}{=\sum
\alpha_{i}\vec{x}_{i}$, on déduit par linéarité de A que

A($\displaystyle \bf{x}{)= \sum_{i=1}^{m}\left( \sum_{j=1}^{n} a_{ij} \alpha_{j}\right) \vec{y}_{i}.$ (3.2)

Réciproquement, donnons nous maintenant une matrice m×n de coefficients aij, notée M(A). Si on définit l'application A par la formule (1.2), on remarque que A$ \mathscr$L(X, Y), où nous rappelons que X et Y sont des espaces vectoriels de dimension n et m respectivement. Ainsi :

Théorème 3.3.1   Il y a une bijection entre $ \mathscr$L(X, Y) et l'ensemble des matrice m×n,

Exemple : Plaçons nous dans $ \mathbbm$R2 et $ \mathbbm$R3, si relativement à des bases ($ \bf{e}{_{1},\vec{e}_{2})$ et ($ \bf{f}{_{1},\vec{f}_{2},\vec{f}_{3})$, une application linéaire est définie comme

A($\displaystyle \bf{e}{_{1})$ = $\displaystyle \bf{f}{_{1}+\vec{f}_{2}+\vec{f}_{3}$
A($\displaystyle \bf{e}{_{2})$ = $\displaystyle \bf{f}{_{1}-\vec{f}_{2}.
$

Alors, la matrice de l'application linéaire A dans les bases considérées s'écrit :

A = $\displaystyle \begin{pmatrix}
1 & 1 \\
1 & -1 \\
1 & 0
\end{pmatrix}$.

Ainsi, si par exemple

$\displaystyle \bf{x}{= \alpha_{1}\vec{e}_{1} +
\alpha_{2}\vec{e}_{2},$

alors

A($\displaystyle \bf{x}{)=
(\alpha_{1}+\alpha_{1})\vec{f}_{1}
+(\alpha_{1}-\alpha_{1})\vec{f}_{2}
+\alpha_{1}\vec{f}_{3}.$

Ce qu'on note également noter sous la forme:

A$\displaystyle \begin{pmatrix}\alpha_{1}  \alpha_{2} \end{pmatrix}$ = $\displaystyle \begin{pmatrix}\alpha_{1}+\alpha_{1}   \alpha_{1}-\alpha_{1}  \alpha_{1}
\end{pmatrix}$.

Bijection entre $ \mathscr$L(X,$ \mathbbm$R) et X

Enchaînons par un résultat fondamental:

Théorème 3.3.2   Soit X un espace vectoriel réel de dimension finie. Étant donné une base de X, on peut définir le produit scalaire : $ \bf{x}{=x_{i}\vec{x}_{i}\quad \forall \vec{y}=y_{i}\vec{x}_{i}$

$\displaystyle \bf{x}{.\vec{y}= x_{i}y_{i}.$

Ainsi pour tout $ \bf{x}{\in X$, on défini une forme linéaire sur X. Réciproquement, toute forme linéaire sur X, via sa représentation matricielle, peut être présentée comme un produit scalaire par un vecteur de X.

Il existe donc une bijection entre $ \mathscr$L(X,$ \mathbbm$R) et X.

Corollaire 3.3.3   Dans le cas où X = $ \mathbbm$Rn le produit scalaire rapporté à la base canonique définit la bijection naturelle entre $ \mathscr$L($ \mathbbm$Rn,$ \mathbbm$R) et $ \mathbbm$Rn.

Cette bijection est essentielle pour bien comprendre le calcul différentiel: Ainsi un réel a peut être identifié à une forme linéaire réelle définit par l'application qui associe à tout réel x, la valeur ax.

De même un vecteur $ \bf{a}{\in\mathbbm{R}^{2}$ peut être identifié à forme linéaire réelle définit par l'application qui associe à tout vecteur $ \bf{x}{$, la valeur réelle $ \bf{a}{.\vec{x}$.

Norme d'une application linéaire

Terminons cette section par une proposition permettant d'obtenir une estimation de la norme d'une application linéaire grâce à sa représentation matricielle

Proposition 3.3.4   Soit aij les coefficients de la matrice de A$ \mathscr$L(X, Y) de la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ de X dans ($ \bf{y}{_{1},\dots,\vec{y}_{n})$ de Y. On a la majoration :

| A|≤$\displaystyle \left(\vphantom{ \sum_{i,j} a_{ij}^{2}}\right.$$\displaystyle \sum_{{i,j}}^{}$aij2$\displaystyle \left.\vphantom{ \sum_{i,j} a_{ij}^{2}}\right)^{{1/2}}_{}$.

Preuve en annexe 1.7.3

Produit de deux matrices et composition de deux applications linéaires

Considérons à présent un troisième espace vectoriel Z de dimension p avec une base ($ \bf{z}{_{1},\dots,\vec{z}_{p})$. Si A est définie par (1.1), définissons de la même manière une application linéaire B$ \mathscr$L(Y, Z) à l'aide de coefficients bki :

B($\displaystyle \bf{y}{_{i}) = \sum_{k=1}^{p} b_{ki}\vec{z}_{k}\qquad (1\leq i\leq m).$ (3.3)

On peut alors définir l'application composée BA$ \mathscr$L(X, Z) par

(BA)($\displaystyle \bf{x}{_{j}) =\sum_{k=1}^{p}c_{kj}\vec{z}_{k}.$

Mais comme

\begin{equation*}\begin{aligned}
(BA)(\vec{x}_{j})& =B( A \vec{x}_{j})\\
&= B\l...
...m_{i=1}^{m} a_{ij}\sum_{k=1}^{p} b_{ki}\vec{z}_{k},
\end{aligned}\end{equation*}

on a finalement

(BA)($\displaystyle \bf{x}{_{j}) =\sum_{k=1}^{p}\sum_{i=1}^{m} b_{ki} a_{ij} \vec{z}_{k},$

c'est à dire :

ckj = $\displaystyle \sum_{{i=1}}^{{m}}$bkiaij. (3.4)

On dit aussi que la matrice p×n, notée C, de coefficients ckj est le produit de la matrice A par la matrice B.

La formule (1.4) donne la règle usuelle du produit de deux matrices.

Terminons par la règle : le produit d'une matrice n×m par une matrice m×p, donne une matrice n×p.

(n×m)(m×p) = (n×p).

Si les dimensions des espaces ne rentrent pas dans le cadre de cette règle, le produit n'est pas défini, les dimensions d'espaces étant incompatibles.


Changement de bases et Matrices de passage

Dans la pratique, et notamment en Mécanique, il apparaît souvent judicieux de passer d'un système de coordonnées à un autre suivant les besoins. Il est donc nécessaire de maîtriser les outils permettant ces passages.

Soit X un espace vectoriel de dimension n et soit un vecteur $ \bf{x}{\in X$ de coordonnées αi dans la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$. Soit ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$ une autre base de X. Supposons connues les coordonnées des vecteurs $ \bf{x}{^{\prime}_{i}$ dans la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ :

$\displaystyle \bf{x}{^{\prime}_{j}=\sum_{i=1}^{n}p_{ij}\vec{x}_{i}. $

On a donc défini une matrice P représentant l'application identité de X, muni de la base ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$, dans X, muni de la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$:

IdX($\displaystyle \bf{x}{^{\prime}_{j})=
\vec{x}^{\prime}_{j}= \sum_{i=1}^{n} p_{ij}\vec{x}_{i}.$

Théorème 3.3.5   La matrice P ayant pour jème colonne les coordonnées de $ \bf{x}{^{\prime}_{j}$ dans la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ est inversible. On l'appelle la matrice de passage de la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ vers la base ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$.

De plus, si αi sont les ``anciennes'' coordonnées de $ \bf{x}{$ dans ($ \bf{x}{_{1},\dots,\vec{x}_{n})$, formant la matrice colonne (n×1) [$ \bf{x}{]_{x}$, on peut les exprimer en fonction des ``nouvelles'' coordonnées αj de $ \bf{x}{$ dans ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$, notées également par une matrice colonne [$ \bf{x}{]_{x^{\prime}}$ avec la formule :

[$\displaystyle \bf{x}{]_{x}= P [\vec{x}]_{x^{\prime}} \quad \iff
\quad P^{-1}[\vec{x}]_{x}=[\vec{x}]_{x^{\prime}}.$

En résumé, si

$\displaystyle \bf{x}{ = \sum_{j=1}^{n} \alpha_{j}\vec{x}_{j}
=\sum_{j=1}^{n} \a...
...j}, \quad
\mbox{et} \quad \vec{x}^{\prime}_{j}=\sum_{i=1}^{n}p_{ij}\vec{x}_{i},$

alors

αi = $\displaystyle \sum_{{j=1}}^{{n}}$pijαj.

Autrement dit, pour obtenir les ``nouvelles'' coordonnées en fonction des anciennes, il faut passer par la matrice de passage P-1 de la base ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$ vers la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$.

La notation P-1 est justifiée par le fait que P-1 est nécessairement la matrice inverse de P. En effet, on doit avoir

PP-1 = P-1P = In,

In est la matrice identité n×n.

Considérons maintenant une application linéaire A$ \mathscr$L(X, Y)X et Y sont toujours des espaces vectoriels de dimension n et m respectivement.

On muni X des bases ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ et ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$, avec P la matrice de passage de ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ vers ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$.

On muni de même Y des bases ($ \bf{y}{_{1},\dots,\vec{y}_{m})$ et ($ \bf{y}{^{\prime}_{1},\dots,\vec{y}^{\prime}_{m})$, avec Q la matrice de passage de ($ \bf{y}{_{1},\dots,\vec{y}_{m})$ vers ($ \bf{y}{^{\prime}_{1},\dots,\vec{y}^{\prime}_{m})$. Alors, on a la proposition :

Proposition 3.3.6   Soit M la matrice de A de la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ de X vers la base ($ \bf{y}{_{1},\dots,\vec{y}_{m})$de Y. Alors la matrice M de A de la base ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$ de X vers la base ($ \bf{y}{^{\prime}_{1},\dots,\vec{y}^{\prime}_{m})$ de Y, se décompose :

M = Q-1MP.

Preuve. En effet, on a

$\displaystyle \left[\vphantom{A (\vec{x})}\right.$A($\displaystyle \bf{x}{)$$\displaystyle \left.\vphantom{A (\vec{x})}\right]_{{y^{\prime}}}^{}$ = M$\displaystyle \left[\vphantom{\vec{x}}\right.$$\displaystyle \bf{x}{ $$\displaystyle \left.\vphantom{\vec{x}}\right]_{{x^{\prime}}}^{}$

et

$\displaystyle \left[\vphantom{A (\vec{x}}\right.$A($\displaystyle \bf{x}{ $$\displaystyle \left.\vphantom{A (\vec{x}}\right]_{{y^{\prime}}}^{}$ = Q-1$\displaystyle \left[\vphantom{A (\vec{x})}\right.$A($\displaystyle \bf{x}{)$$\displaystyle \left.\vphantom{A(\vec{x})}\right]_{{y}}^{}$ = Q-1M$\displaystyle \left[\vphantom{\vec{x}}\right.$$\displaystyle \bf{x}{ $$\displaystyle \left.\vphantom{\vec{x}}\right]_{{x}}^{}$ = Q-1MP$\displaystyle \left[\vphantom{\vec{x}}\right.$$\displaystyle \bf{x}{ $$\displaystyle \left.\vphantom{\vec{x}}\right]_{{x^{\prime}}}^{}$.

$ \qedsymbol$

Dans le cas particulier où A est un opérateur linéaire (on dit aussi endomorphisme) sur X, si P est la matrice de passage de la base ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ vers la base ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$, alors si M et M sont les matrices de A dans ($ \bf{x}{_{1},\dots,\vec{x}_{n})$ et ($ \bf{x}{^{\prime}_{1},\dots,\vec{x}^{\prime}_{n})$ respectivement, alors on a

M = P-1MP.

choi 2008-12-22