\section{Diagonaliseerbaarheid}

Zoals we zagen hangt de matrix die behoort bij een lineaire
transformatie af van de keuze van een basis voor de ruimte.
In dit hoofdstuk buigen we ons eerst over de vraag of er
altijd een basiskeuze bestaat waarvoor de matrix diagonaalvorm
heeft.

\begin{dfs}\rm
Een matrix $D\in\Mat_{n,n}(K)$ heet {\it diagonaalmatrix} als
$D_{i,j}=0$ voor alle $i\neq j$, (met $1\leq i,j\leq n$).
Een matrix $M\in\Mat_{n,n}(K)$ heet {\it diagonaliseerbaar} als
er een met $M$ geconjugeerde matrix bestaat die diagonaalmatrix is.
Een lineaire transformatie $T$ van een
eindig-dimensionale vectorruimte $V$ heet {\sl diagonaliseerbaar}
als er een basis ${\cal B}$ bestaat zodat $M_T^{\cal B}$ een diagonaalmatrix is.
\end{dfs}

\opgave{Opgave}{Laat zien dat de diagonaalmatrix $D=d I_n$
met constante diagonaal commuteert met elke andere $n\times n$ matrix.}

\begin{thm}
Een lineaire transformatie $T$ van een
eindig-dimensionale vectorruimte $V$ is diagonaliseerbaar
dan en slechts dan als $M_T^{\cal B}$ diagonaliseerbaar is voor
elke basis ${\cal B}$ van $V$.
\end{thm}

\noindent
{\bf Bewijs.} Duidelijk.

\bigskip\noindent
Laat nu $T$ een diagonaliseerbare lineaire transformatie zijn, en 
${\cal B}=\{ b_1, b_2, \ldots, b_n\}$
een basis ten opzichte waarvan $M_T^{\cal B}=D$ een diagonaalmatrix is.
Dan is $Db_i=D_{i,i}b_i$, met $D_{i,i}\in K$, met andere woorden:
de vectoren $b_i$ worden door $D$ met een factor $D_{i,i}$ vermenigvuldigd.

Omgekeerd, als je in $V$ een basis ${\cal B}=\{ b_1, b_2, \ldots, b_n\}$
kunt vinden zodanig dat
$Tb_i=d_ib_i$, dan is $M_T^{\cal B}$ 
de diagonaalmatrix $D$ met op de diagonaal $D_{i,i}=d_i$.

\begin{dfn}\rm
Een {\it eigenvector} voor een lineaire transformatie $T$
van de $K$-vectorruimte $V$ is een $v\in V$ zodanig dat $v\neq 0$
en $Tv=\lambda v$, voor zekere
$\lambda\in K$; deze $\lambda$ heet de (bij $v$ behorende) {\it eigenwaarde} voor~$T$.
Een {\it eigenvector} voor de matrix $M\in\Mat_{n,n}(K)$ is een $0\neq v\in V$
met $Mv=\lambda v$ voor zekere $\lambda\in K$; die $\lambda$ heet
de (bij $v$ behorende) {\it eigenwaarde} voor $M$.
De bij een eigenwaarde $\lambda$ van een transformatie $T$ (of matrix $M$)
behorende {\it eigenruimte} $E_\lambda$ is de lineaire deelruimte van $V$ bestaande
uit de vectoren $u\in V$ met $Tu=\lambda u$ (danwel $Mu=\lambda u$),
$$E_\lambda=\{ v\in V\ \colon\ Tv=\lambda v\}.$$
\end{dfn}


\opgave{Opgave} {Ga na dat $E_\lambda$ een lineaire deelruimte van $V$ is.}

\bigskip\noindent
We hebben boven, samenvattend, zojuist de volgende stelling bewezen.

\begin{thm}
Een lineaire transformatie $T\colon\ V\rightarrow V$
is diagonaliseerbaar dan en slechts dan als er een basis van $V$ is die
bestaat uit eigenvectoren voor $T$.
\end{thm}

\begin{opn}\rm
Per definitie is de eigenschap dat $v$ een eigenvector
is voor een lineaire transformatie $T$ niet afhankelijk van de keuze van
een basis ${\cal B}$ voor de vectorruimte $V$; in het bijzonder zal een eigenvector van
$T$ dus een eigenvector zijn voor $M_T^{\cal B}$, voor elke basis $B$.
Omgekeerd zal een eigenvector voor een $M_T^{\cal B}$ eigenvector voor $T$
en dus voor elke $M_T^{\cal B}$ zijn.

Het is duidelijk dat de eigenruimte bij de eigenwaarde $0$ de kern van
de transformatie (of matrix) is.

Meetkundig, over $\R$, is een vector $v$ eigenvector voor $T$ als
zijn beeld een (re\"eel) veelvoud $\lambda v$ van $v$ zelf is. Is
$\lambda>1$ dan wordt de vector opgeblazen, is $0<\lambda<1$ dan
wordt $v$ ingekrompen. Met $\lambda=1$ blijft $v$ invariant.
Is $\lambda<0$ dan wordt $v$ eerst gespiegeld
in de oorsprong, waarna hetzelfde geldt met $\vert\lambda\vert$ in plaats van
$\lambda$.
\end{opn}

\opgave{Opgave}{Ga na dat bovenstaande meetkundige opmerkingen omtrent
een re\"ele vectorruimte gelden voor de hele lijn $\mu v$ opgespannen
door een eigenvector $v$.}

\opgave{Opgave}{Geef een voorbeeld van een lineaire transformatie
die geen eigenvectoren heeft.}

\begin{vbd}\rm
Veronderstel dat $A$ de matrix is van een lineaire transformatie van $\Q^2$
(ten opzichte van de standaardbasis) met
$$A=
\left(
\begin{array}{cc}
1 & 3\\
4 & 2\\
\end{array}\right).$$
Een berekening leert onmiddellijk dat
$$A\left(\begin{array}{c}1\\-1\\ \end{array}\right)=
-2\left(\begin{array}{c}1\\-1\\ \end{array}\right),\quad
A\left(\begin{array}{c}3\\4\\ \end{array}\right)=
5\left(\begin{array}{c}3\\4\\\end{array}\right),$$
zodat ten opzichte van de basis
${\cal B}=\Big\{\left(\begin{array}{c}1\\-1\\\end{array}\right), 
\left(\begin{array}{c}3\\4\\\end{array}\right)\Big\}$
de transformatie gegeven wordt door
$$A^{\cal B}=\left(\begin{array}{cc}
-2 & 0\\
0 & 5\\
\end{array}\right).$$
Natuurlijk is het de kunst om die twee eigenvectoren te
{\it vinden}.
\end{vbd}

\section{Eigenruimten}

In deze paragraaf is $V$ een $n$-dimensionale $K$-vectorruimte,
met $n>0$.

Het is niet moeilijk in te zien wat de eigenwaarden van een
lineaire transformatie kunnen zijn. Immers, $\lambda$ is een
eigenwaarde voor $T$ dan en slechts dan als 
$Tv=\lambda v$ voor een $v\in V$ met $v\neq 0$, dat wil zeggen
$(\lambda-T)v=0$, oftewel $v\in\ker(\lambda -T)$.
Hier is $\lambda$ de vermenigvuldiging met de scalar $\lambda$,
en dat schrijven we ook wel als $\lambda I$, waar $I=\id_V$, de identieke
afbeelding op~$V$.

We vinden onmiddellijk de volgende stelling.

\begin{thm}
Zij $V$ een eindig-dimensionale $K$-vectorruimte.
Dan is $\lambda\in K$ een eigenwaarde voor $T$ dan en slechts dan
als $U=\ker(\lambda I-T)$ niet $\{0\}$ is,
en in dat geval is $U$ de bij $\lambda$ behorende eigenruimte $E_\lambda$
voor $T$.
\end{thm}

\noindent
Omdat $\lambda$
eigenwaarde voor $T$ is dan en slechts dan als $\lambda$ een
eigenwaarde is voor $M=M_T^{\cal B}$, waar ${\cal B}$ een basis voor $V$
is, geldt dit dan en slechts dan als
$Mv=\lambda v=\lambda I_n v$ voor een $v\in V$ met $v\neq 0$, dat wil zeggen
$(\lambda I_n-M)v=0$, oftewel $v\in\ker(\lambda I_n-M)$, waar $I_n$ natuurlijk
de $n\times n$ eenheidsmatrix is.

\begin{gev}
Met notaties als boven, en ${\cal B}$ een basis voor $V$, geldt:
$\lambda\in K$ is eigenwaarde voor $T$ dan en slechts als
$\det(\lambda I_n-M)=0$, waar $M=M_T^{\cal B}$.
\end{gev}

\begin{dfn}
Zij $M\in \Mat_{n\times n}(K)$;
het polynoom $p_M(x)=\det(x I_n-M)\in K[x]$ heet het {\it karakteristieke polynoom}
van $M$.
Voor een lineaire transformatie $T$ van $V$ met
matrix $M=M_T^{\cal B}$ ten opzichte van een basis ${\cal B}$ voor $V$
heet het polynoom $p_M\in K[x]$ een {\it karakteristiek polynoom}
voor $T$. 
\end{dfn}

\begin{lem}
Het karakteristieke polynoom van $T$ hangt niet af van de keuze voor de 
basis ${\cal B}$.
\end{lem}

\noindent
{\bf Bewijs.}
Als ${\cal B}$ en ${\cal B'}$ twee bases voor $V$ zijn, geldt met $M=M_T^{\cal B}$ en
$M'=M_T^{\cal B'}$ dat $M=CM'C^{-1}$ voor zekere $C\in\Mat_{n\times n}(K)$.
Dan is $p_M$ 
$$\det(x I_n-M)=\det(x I_n-CM'C^{-1})=\det(C(x I_n-M')C^{-1})=
\det(x I_n-M')$$ en dat is $p_{M'}$,
dat wil zeggen: de karakteristieke polynomen van $M$ en $M'$ zijn gelijk.

\begin{opn}\rm
We kunnen dus spreken van {\it het karakteristieke polynoom} van $T$,
dat we met $p_T$ aan zullen geven.
Bovendien hebben we bewezen dat $\lambda\in K$ een eigenwaarde voor $T$
is dan en slechts dan als het een nulpunt van het karakteristieke polynoom
van $T$ is. Met volledige inductie (naar $n$) is het duidelijk dat $p_T$
een polynoom in $K[x]$ is van graad $n$.
Op grond van de opgave na \ref{opg:nulp} weten we dan dat $T$ niet meer dan
$n=\dim V$ eigenwaarden kan hebben. Bij een gegeven eigenwaarde
is de eigenruimte precies de kern van de afbeelding $\lambda I-T$.
\end{opn}

\opgave{Opgave}{Bewijs dat voor het karakteristieke polynoom
$p_T=p_nx^n+p_{n-1}x^{n-1}+\cdots+p_1x+p_0\in K[x]$ van $T\colon V\rightarrow V$geldt
dat $p_n=1$, dat $p_{n-1}=-\sum_i M_{i,i}$ en dat
$p_0=(-1)^n\det M$, waar $M=M_T^{\cal B}$ voor een willekeurige basis
${\cal B}$ voor $V$. De som $\sum_i M_{i,i}$ van diagonaalelementen wordt het
{\it spoor} van de matrix $M$ genoemd.}

\begin{vbd}\rm
Laat 
$$A=
\left(
\begin{array}{cc}
1 & 1\\
4 & 1\\
\end{array}\right)$$
de matrix van een lineaire transformatie van $\Q^2$ ten opzichte van 
de standaardbasis zijn. Teneinde de eigenwaarden van $A$
te vinden bepalen we
$$\det(\lambda I_2-A)=\left|
\begin{array}{cc}
\lambda-1 & -1\\
-4 & \lambda-1\\
\end{array}\right|=
(\lambda-1)^2-4=%\lambda^2-2\lambda-3=
(\lambda-3)(\lambda+1).$$
De eigenwaarden van de bij $A$ horende transformatie zijn dus $3$ en $-1$.

Om $E_{3}$ te vinden, moeten we $\ker(3 I_2-A)$ bepalen, dat wil zeggen
de kern van de matrix waarvan we hierboven de determinant uitrekenden,
met $\lambda=3$ ingevuld:
$$E_{3}=\ker(3 I_2-A)=\ker\left(
\begin{array}{cc}
2 & -1\\
-4 & 2\\
\end{array}\right).$$
Voor vectoren $v=\left(\begin{array}{c}v_1\\v_2\\ \end{array}\right)$
in de eigenruimte $E_{3}$ geeft dat maar \'e\'en lineaire
conditie, namelijk $2v_1=v_2$. De eigenruimte bestaat dan uit alle
(rationale) veelvouden van
$\left(\begin{array}{c}1\\2\\ \end{array}\right)$. 

Net zo is $E_{-1}$ de kern van
$$\left(
\begin{array}{cc}
-2 & -1\\
-4 & -2\\
\end{array}\right),$$
zodat $E_{-1}=\Big\{ \mu\left(\begin{array}{c}-1\\2\\ \end{array}\right)\colon
\mu\in\Q\Big\}$.

Om de matrix van de transformatie ten opzichte van de basis ${\cal B}=
\Big\{\left(\begin{array}{c}1\\2\\ \end{array}\right),$
$\left(\begin{array}{c}-1\\2\\ \end{array}\right)\Big\}$ in plaats van
de standaardbasis te bepalen, kunnen we volgens \ref{sec:mat} dus $A$
conjugeren met de matrix $\Phi^{{\cal E}, {\cal B}}$ die een vector
gegeven in basis ${\cal B}$ coordinaten uitdrukt in coordinaten ten
opzichte van de standaardbasis; maar dan is
$$M_\Phi=\left(
\begin{array}{cc}
1 & -1\\
2 & 2\\
\end{array}\right),$$
en dus de gevraagde matrix
$$A^{\cal B}=M_\Phi^{-1} AM_\Phi=
\left(
\begin{array}{cc}
1 & -1\\
2 & 2\\
\end{array}\right)^{-1}
\left(
\begin{array}{cc}
1 & 1\\
4 & 1\\
\end{array}\right)
\left(
\begin{array}{cc}
1 & -1\\
2 & 2\\
\end{array}\right).$$
Anderzijds weten we natuurlijk al precies wat het resultaat zal zijn:
immers ${\cal B}$ is een basis bestaande uit eigenvectoren, en omdat
de bijbehorende eigenwaarden $3$ en $-1$ zijn zal het resultaat
$$A^{\cal B}=
\left(
\begin{array}{cc}
3 & 0\\
0 & -1\\
\end{array}\right)$$
moeten zijn!
\end{vbd}

\opgave{Opgave}{Ga na dat de identiteit $A^{\cal B}=M_\Phi^{-1} AM_\Phi$ inderdaad geldt.}

\medskip\noindent
De grootste nog resterende complicatie is gelegen in de mogelijkheid dat
eigenwaarden met zekere multipliciteiten voorkomen.

\begin{dfn}\rm
De {\it (algebra\"\i sche) multipliciteit} van een nulpunt $\alpha\in K$
van een polynoom $f\in K[x]$ is de grootste $k\geq 1$ waarvoor $(x-\alpha)^k$ het polynoom
$f$ deelt in $K[x]$.
\end{dfn}

\medskip\noindent
Eerst laten we zien dat
de situatie overzichtelijk is wanneer alle multipliciteiten $1$ zijn.

\begin{thm}\label{st:indep}
Als $x_i$ eigenvector van $T$ is met eigenwaarde $\lambda_i$,
en $\lambda_i\neq\lambda_j$ 
voor $1\leq i<j\leq k$, dan
zijn $x_1, x_2, \ldots, x_k$ lineair onafhankelijk.
\end{thm}

\noindent
{\bf Bewijs.}
Inductie naar $k$. Voor $k=1$ is de stelling zeker waar.
Veronderstel eens dat
$$\mu_1x_1+\mu_2x_2+\cdots+\mu_kx_k=0,$$
met $k>1$, en $x_i$ als in de stelling. Er geldt dan
$$(T-\lambda_k)(\mu_1x_1+\mu_2x_2+\cdots+\mu_kx_k)=(\lambda_1-\lambda_k)\mu_1x_1+\cdots+
(\lambda_{k-1}-\lambda_k)\mu_{k-1}x_{k-1}=0.$$
Op grond van de inductiehypothese is $x_1, x_2, \ldots, x_{k-1}$ lineair onafhankelijk,
dus
$$(\lambda_j-\lambda_k)\mu_j=0,$$
voor $j=1, 2, \ldots, k-1$, en omdat $\lambda_j\neq \lambda_k$ moet
$\mu_j=0$, voor $j=1,2,\ldots, k-1$. Maar dan ook $\mu_k=0$, en we zijn klaar!

\begin{gev}
Als $T$ over $K$ precies $n$ verschillende eigenwaarden heeft
is $T$ diagonaliseerbaar over $K$.
\end{gev}

\noindent
{\bf Bewijs.} De $n=\dim V$ verschillende eigenvectoren $x_i$ zijn op grond van
voorgaande stelling onafhankelijk en vormen dus een basis voor $V$, ten opzichte waarvan
$T$ diagonaalvorm heeft.

\bigskip\noindent
Let wel dat er in feite twee voorwaarden staan in dit gevolg: alle nulpunten
van het karakteristieke polynoom moeten in $K$ liggen en ze moeten ook
allemaal verschillend zijn!

\opgave{Opgave}{Geef een voorbeeld van een lineaire transformatie van
$\Q^2$ die pas aan de voorwaarden van het gevolg voldoet als we hem
opvatten als transformatie van $\R^2$.}

\begin{thm}\label{st:linfact}
Als $T$ een diagonaliseerbare transformatie van de eindig-dimen\-si\-o\-na\-le $K$-vectorruimte $V$
is, dan splitst het karakteristieke polynoom $p_T(x)\in K[x]$ in $K[x]$ volledig in lineaire
factoren.
\end{thm}

\noindent
{\bf Bewijs.}
Ten opzichte van zekere basis is $T$ een diagonaalmatrix; op de diagonaal staan dan de
eigenwaarden $\lambda_i$ van $T$. Die moeten in het lichaam $K$ zitten, en dus valt
$p_T$ over $K$ uiteen in de lineaire factoren $x-\lambda_i$.

\bigskip\noindent
Let wel: het belangrijkste van de laatste stelling is dat $p_T$ al {\it over het lichaam $K$}
in lineaire factoren uiteen valt. Dat garandeert natuurlijk nog niet
dat alle eigenwaarden verschillend zijn. De omkering van 
Stelling \ref{st:linfact} blijkt ook niet te gelden!

\begin{vbd}\rm
Beschouw de lineaire transformatie van $\Q^3$ gegeven door
$$A=
\left(\begin{array}{ccc}
3&1&-2\\
-1&0&5\\
-1&-1&4\\
\end{array}\right).$$
Het karakteristieke polynoom van $A$ is
$$\det\left|\lambda I_3-A\right|=(\lambda-2)^2(\lambda-3).$$
Om $E_2$ te bepalen kijk je naar de kern van
$$\left(\begin{array}{ccc}
-1&-1&2\\
1&2&-5\\
1&1&-2\\
\end{array}\right);$$
omdat de rang van deze matrix $2$ is, zal de kern dimensie $1$
hebben. Daarom is $E_2$ ook $1$-dimensionaal, net als $E_3$.
Andere eigenwaarden zijn er niet, en dus kan er geen basis voor $\Q^3$ zijn
bestaande uit eigenvectoren: $A$ is niet diagonaliseerbaar!
\end{vbd}

\opgave{Opgave}{Bepaal $E_2$ en $E_3$ in dit voorbeeld.}

\medskip\noindent
Het niet-diagonaliseerbaar zijn van $A$ in het voorbeeld werd veroorzaakt
doordat voor een zekere eigenwaarde ($\lambda=2$) de multipliciteit
van die eigenwaarde ($2$) groter was dan de dimensie van de eigenruimte
$E_\lambda$ ($1$).

\opgave{Opgave}{Bewijs dat dit fenomeen niet op kan treden als
de multipliciteit $1$ is, door te laten zien dat als $\lambda$
eigenwaarde is, er geldt $\dim E_\lambda\geq 1$.}

\medskip\noindent
De dimensie van $E_\lambda$ wordt ook wel de {\it meetkundige
multipliciteit} van $\lambda$ genoemd; de volgende stelling drukt
dan uit dat de meetkundige multipliciteit
ten hoogste gelijk is aan de algebra\"\i sche multipliciteit.

\begin{thm}\label{st:multipl}
Als $T$ eigenwaarde $\lambda$ met multipliciteit $m$ heeft dan geldt
$$1\leq\dim E_\lambda\leq m.$$
\end{thm}

\noindent
{\bf Bewijs.} Omdat $\lambda$ eigenwaarde is, geldt $\dim E_\lambda\geq 1$
(zie voorgaande opgave). Voor de andere
ongelijkheid vullen we een basis van de deelruimte $E_\lambda$ van dimensie $\ell$
aan tot een basis
${\cal B}$ voor $V$. Ten opzichte van die basis is de matrix
$$M_T^{\cal B}=
\left(
\begin{array}{cc}
D & A\\
0 & C\\
\end{array}\right),$$
waar
$$D=\left(
\begin{array}{cccc}
\lambda & 0 & \cdots & 0   \\
0 & \lambda & \cdots & 0   \\
\vdots & \ddots & \ddots & \vdots  \\
0 & \cdots & 0 & \lambda   \\
\end{array}\right),$$
een $\ell\times\ell$ matrix is, en dus
$$p_T(x)=(x-\lambda)^\ell\det(xI_{n-\ell}-C).$$
De multipliciteit $m$ van $\lambda$ is dus minstens $\ell=\dim E_\lambda$.

\bigskip\noindent
In feite gebruiken we in het bewijs alleen maar een speciaal geval van het
volgende lemma, dat we later nogmaals zullen gebruiken.

\begin{lem}
Als $U$ een onder $T$ invariante deelruimte van $V$
is, dan is $p_{T\vert_U}$, het karakteristieke polynoom van de beperking
van $T$ tot $U$, een deler van $p_T$.
\end{lem}

\noindent
{\bf Bewijs.} Vul een basis voor $U$ aan tot een basis voor $V$; dan
wordt $T$ ten opzichte van die basis gegeven door de matrix
$$M=
\left(
\begin{array}{cc}
B & A\\
0 & C\\
\end{array}\right),$$
waar $B$ de matrix voor de beperking $T\vert_U$ is. De bewering volgt
dan omdat $\det (\lambda I_n-M)=\det (\lambda I_k-B)
\det (\lambda I_{n-k}-C)$.

\opgave{Opgave}{Bewijs dat laatste netjes!}

\begin{thm}\label{st:diagequiv}
Laat $T$ een lineaire transformatie zijn van de 
$K$-vectorruimte $V$, van eindige dimensie $n$. Dan zijn
de volgende beweringen equivalent:
\begin{hwitemize}
\item[{\rm (i)}] $T$ is diagonaliseerbaar;
\item[{\rm (ii)}] $p_T(x)$ splitst in $K[x]$ in lineaire factoren:
$$p_T=\prod_{\lambda}(x-\lambda)^{m_\lambda}$$
\`en $\dim E_{\lambda}=m_\lambda$, waar $\lambda$ de verschillende eigenwaarden van
$T$ doorloopt.
\item[{\rm (iii)}] $V=\oplus_\lambda E_{\lambda}$.%\oplus E_{\lambda_2}\oplus\cdots\oplus E_{\lambda_k}.$
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.} Als (i) geldt, splitst $p_T$ volledig in lineaire factoren over $K$
volgens Stelling \ref{st:linfact}. Kies nu een basis ${\cal B}$ ten opzichte
waarvan $T$ door een diagonaalmatrix wordt gegeven; dan is elke $b_i\in{\cal B}$
eigenvector bij \'e\'en van de eigenwaarden $\lambda$ van $T$, en bovendien
is het duidelijk dat $B_\lambda=\{ b\in{\cal B}\ :\ Tb=\lambda b\}$ een basis is voor
$E_\lambda$, voor elke eigenwaarde $\lambda$. Maar dan is $\# B_\lambda=\dim E_\lambda$
en
$$n=\#{\cal B}=\sum_\lambda \# B_\lambda=\sum_\lambda\dim E_\lambda\leq \sum_\lambda m_\lambda=\deg p_T=n,$$
op grond van Stelling \ref{st:multipl}, dus moet $\dim E_\lambda=m_\lambda$, voor elke eigenwaarde
$\lambda$.

Als $\lambda'\neq \lambda$ dan is het duidelijk dat $E_{\lambda'}\cap E_{\lambda}=\{0\}$, want
$\lambda' v=Tv=\lambda v$ voor een $v$ in de doorsnijding.
Omdat $u'$ en $u$ zelfs lineair onafhankelijk zijn als $u'\in E_{\lambda'}$ en
$u\in E_{\lambda}$, op grond van Stelling \ref{st:indep}, vormt 
$\cup_\lambda B_\lambda$ dan een onafhankelijk stelsel in $V$ als $B_\lambda$ een basis voor $E_\lambda$ is.
Geldt nu (ii), dan is $n=\#\cup_\lambda B_\lambda$, en dus is $\cup_\lambda B_\lambda$ een basis
voor $V$, terwijl $E_{\lambda'}\cap E_{\lambda}=\{0\}$. Daaruit volgt (iii).

Tenslotte volgt (i) direct uit (iii) omdat een basis voor $E_\lambda$ bestaat uit
eigenvectoren van~$T$. Ten opzichte van een basis voor $V$ die bestaat uit de vereniging
van bases voor de $E_\lambda$ heeft $T$ dus een diagonaalmatrixvoorstelling.


\bigskip\noindent
De stelling zegt dus, onder andere, dat $T$ diagonaliseerbaar is dan en slechts dan
als $V$ de directe som is van eigenruimten.

\opgave{Opgave}{Bewijs dat $\dim E_\lambda=m_\lambda$ dan en slechts dan als
$\rk(\lambda I_n-M)=n-m_\lambda$, waar $M$ de matrix van de lineaire
transformatie ten opzichte van een basis voor $V$ is.}

\opgave{Opgave}{Laat zien dat als $T$ een lineaire transformatie van een eindig-dimensionale
$V$ is en $V$ is de directe som van invariante
deelruimten $V_i$ (met $1\leq i\leq k$), dan is $p_T$ het product van
$p_T^{(i)}$, waar $p_T^{(i)}$ het karakteristieke polynoom is van de beperking van 
$T$ tot $V_i$, voor $1\leq i\leq k$.}

\section{Cayley-Hamilton}

Doel van deze paragraaf is te laten zien dat lineaire transformaties
aan zekere algebra\"\i sche vergelijkingen voldoen. Daartoe blijkt het nuttig
te zijn om, voor een niet-nul vector $w$ in een eindig-dimensionale
$K$-vectorruimte $V$ waarop een lineaire transformatie $T$ werkt, te kijken
naar $w, Tw, T^2w, \ldots$ en in het bijzonder naar lineaire
relaties daartussen.

Als $Tw$ lineair afhankelijk is van $w=T^0w$ moet $w$ wel een eigenvector
van $T$ zijn. Is $Tw$ onafhankelijk van $w$, dan kan het zijn dat $T^2w$
lineair afhankelijk is van $w$ en $Tw$, enzovoorts. We kijken naar de
kleinste $k$ waarvoor $T^kw$ lineair afhankelijk is van 
$w, Tw, T^2w, \ldots, T^{k-1}w$. Omdat de ruimte $T_w$ opgespannen door alle
$T^iw$ een lineaire deelruimte is van $V$ bestaat er zo'n $k$. Bovendien
is $T_w$ invariant onder $T$.

Er zijn co\"effici\"enten $c_0, c_1, \ldots, c_{k-1}\in K$ met 
$$T^kw=c_0w+c_1Tw+\cdots +c_{k-1}T^{k-1}w,$$
en hierin zijn een matrix voor $T_w$ en diens karakteristieke polynoom
nu eenvoudig uit te drukken.

\begin{lem}\label{lem:bep}
Met notatie als boven geldt dat de matrix voor
de beperking $T\vert_{T_w}$ van $T$ tot $T_w$ gegeven wordt door
$$M_{T\vert_{T_w}}=\left(
\begin{array}{ccccccc}
0&0&0&\cdots&0&0&c_0\\
1&0&0&\cdots&0&0&c_1\\
0&1&0&\cdots&0&0&c_2\\
\vdots&\vdots&\ddots&\ddots&\vdots&\vdots\\
0&0& &\ddots&0&0&c_{k-3}\\
0&0&0&\cdots&1&0&c_{k-2}\\
0&0&0&\cdots&0&1&c_{k-1}\\
\end{array}\right),$$
ten opzichte van de basis $w, Tw, ,\ldots, T^{k-1}w$.
Bovendien is het karakteristieke polynoom van $T\vert_{T_w}$ gelijk aan
$x^k-c_{k-1}x^{k-1}-\cdots-c_1x-c_0$.
\end{lem}

\noindent
{\bf Bewijs} Voor de vorm van de matrix gebruikt men simpelweg dat $T$
de basisvectoren $T^iw$ opschuift, voor $0\leq i\leq k-2$,
en de relatie voor $T^kw$. De rest volgt direct.

\opgave{Opgave}{Bewijs met inductie naar $k$ dat het karakteristieke
polynoom van de matrix uit het lemma 
inderdaad $x^k-c_{k-1}x^{k-1}-\cdots-c_1x-c_0$ is.}

\begin{opn}\rm
De matrix uit het voorafgaande lemma wordt wel de {\it companion matrix}
van het polynoom $x^k-c_{k-1}x^{k-1}-\cdots-c_1x-c_0$ genoemd.

In het volgende willen we uitdrukkingen van de vorm
$a_0+a_1T+\cdots +a_{k-1}T^{k-1}$, voor een lineaire transformatie
$T$ van $V$, weer als lineaire transformatie van $V$ opvatten.
Het zal duidelijk zijn hoe dit moet:
$$(a_0+a_1T+\cdots +a_{k-1}T^{k-1})v=a_0v+a_1Tv+\cdots+a_{k-1}T^{k-1}v,$$
een combinatie van vermenigvuldiging met een scalar en het loslaten van
$T$ op een vector. Deze lineaire afbeeldingen vormen een ring, die we
wel met $K[T]$ aangeven.

Maken we een basiskeuze, dan kunnen we $T$ door een matrix $M_T$ voorstellen,
en de lineaire afbeelding $a_0+a_1T+\cdots +a_{k-1}T^{k-1}$ door
$a_0+a_1M_T+\cdots +a_{k-1}M_T^{k-1}$. We krijgen dan een ring
$K[M_T]$, die een deelring is van $\Mat_{n\times n}(K)$.
\end{opn}

\begin{thm}{\bf [ Cayley-Hamilton ]}
Voor een lineaire transformatie
$T$ van een eindig-dimensionale vectorruimte $V$ met karakteristiek polynoom
$p_T$ geldt:
$$p_T(T)=0.$$
Bovendien is, als $M_T$ een matrix voor $T$ is ten opzichte van een
basis voor $V$
$$p_T(M_T)=0.$$
Dat wil zeggen: $T$ en $M_T$ voldoen aan hun eigen karakteristieke vergelijking.
\end{thm}

\noindent
{\bf Bewijs.} Om te laten zien dat $p_T(T)=0$ (de nulafbeelding), moeten
we laten zien dat $p_T(T):v\mapsto 0$ voor elke $v\in V$.

Als $v=0$, dan is $p_T(T)(v)=0$, omdat $0$ het beeld van $0$ is voor elke
lineaire afbeelding.

Als $v\neq 0$, bekijk dan $T_v$, de ruimte opgespannen door
$v, Tv, T^2v, \ldots$. Dit is een lineaire deelruimte van $V$, en daarom
eindig-dimensionaal, zeg $\dim T_v=k$. Maar dan is de $k+1$-ste vector
$T^kv$ al bevat in $v, Tv, \ldots, T^{k-1}v$, dat wil zeggen, er bestaan
co\"effici\"enten $c_0, c_1, \ldots, c_{k-1}$ in $K$ zodat
$$T^kv=-c_0v-c_1 Tv \cdots-c_{k-1}T^{k-1}v.\label{eq:comb}$$
Volgens Lemma \ref{lem:bep} geldt nu
$$p_{T\vert_{T_v}}(x)=x^k+c_{k-1}x^{k-1}+\cdots+c_1x+c_0,$$
terwijl volgens Lemma 3.2.13 dit polynoom een deler is van $p_T$. Dus is er
een polynoom $q(x)\in K[x]$ zodat
$$p_{T}(x)=q(x)(x^k+c_{k-1}x^{k-1}+\cdots+c_1x+c_0).$$
Substitueren we hierin  $T$ voor $x$, dan geeft dit
$$p_{T}(T)=q(T)(T^k+c_{k-1}T^{k-1}+\cdots+c_1T+c_0),$$
een gelijkheid tussen twee lineaire afbeeldingen waarvoor het rechterlid
toegepast op $v$ beeld $0$ heeft, vanwege bovenstaande relatie. Maar dan is
dus ook $p_T(T)(v)=0$, zoals te bewijzen was.

De bewering voor matrices volgt hieruit (of volgens een analoog argument).

\begin{vbd}\rm
Laat $T:\Q^3\rightarrow \Q^3$ gegeven zijn door
$$T:\left(\begin{array}{c} a\\b\\c\end{array}\right)\mapsto
\left(\begin{array}{c} -b+c\\a+c\\3c\end{array}\right),$$
zodat, ten opzichte van de standaardbasis $\{e_1, e_2, e_3\}$
de afbeelding gegeven wordt door:
$$M_T=\left(\begin{array}{ccc} 0&-1&1\\1&0&1\\0&0&3\end{array}\right).$$
Daaruit volgt direct dat $Te_1=e_2$, en $T^2e_1=Te_2=-e_1$. Daarom
is de ruimte $T_{e_1}$ opgespannen door $e_1$, $Te_1$, $T^2e_1$, $\ldots$
dezelfde als die opgespannen door $e_1$ en $Te_1$, dat wil zeggen
door $\{e_1, e_2\}$. We zien op twee manieren dat het karakteristieke
polynoom va de beperking tot $T_{e_1}$ het kwadratische polynoom $x^2+1$
is: immers $T^2e_1=-e_1$. Ook kunnen we kijken naar de matrix van
beperking $T\vert_{T_{e_1}}$, namelijk
$$M_{T\vert_{T_1}}=\left(\begin{array}{cc} 0&-1\\1&0\end{array}\right),$$
zodat volgens de definitie van het karakteristiek polynoom
we $p_{T\vert_{T_1}}=x^2+1$ krijgen. Dit polynoom deelt $p_T$.

Kijken we naar de ruimte
$T_{e_3}$ opgespannen door $e_3$, $Te_3$, $T^2e_3$, $\ldots$, dan vinden we:
$$e_3=\left(\begin{array}{c} 0\\0\\1\end{array}\right), \quad
Te_3=\left(\begin{array}{c} 1\\1\\3\end{array}\right), \quad
T^2e_3=T\left(\begin{array}{c} 1\\1\\3\end{array}\right)=
\left(\begin{array}{c} 2\\4\\9\end{array}\right),$$
en vervolgens
$$T^3e_3=T\left(\begin{array}{c} 2\\4\\9\end{array}\right)=
\left(\begin{array}{c} 5\\11\\27\end{array}\right)=
3\left(\begin{array}{c} 0\\0\\1\end{array}\right)
-\left(\begin{array}{c} 1\\1\\3\end{array}\right)
+3\left(\begin{array}{c} 2\\4\\9\end{array}\right),$$
oftewel
$$T^3e_3=3T^2e_3-Te_3+3e_3.$$
Het karakteristieke polynoom is dus
$$p_{T\vert_{T_{e_3}}}(x)=x^3-3x^2+x-3=(x^2+1)(x-3).$$
Op grond van de graad moet dit de hele $p_T$ zijn!
\end{vbd}

\opgave{Opgave}{Bereken $p_{T\vert_{T_{e_3}}}(x)$ met behulp van de definitie.}

\section{Toepassingen}\label{toep:ch} De stelling van Cayley-Hamilton kan
toegepast worden om bijvoorbeeld de onderstaande drie (met elkaar
samenhangende) problemen op te lossen.


Om de {\it inverse} van een (inverteerbare) matrix $M\in\Mat_{n\times n}(K)$
te bepalen, gebruikt men de algebra\"\i sche relatie $p_M(M)=0$:
laat $p_M(x)=x^k+c_{k-1}x^{k-1}+\cdots+c_1x+c_0$, dan geldt dus
$$M(M^{k-1}+c_{k-1}M^{k-2}+\cdots+c_1)=-c_0,$$
zodat
$$M^{-1}={M^{k-1}+c_{k-1}M^{k-2}+\cdots+c_1\over -c_0}.$$
\opgave{Opgave}{Laat zien dat $c_0=\pm\det M$, en daarom $c_0\neq0$ voor een
inverteerbare $M$.}

\noindent
Om een (grote) {\it macht} van $M$ (nu niet noodzakelijk inverteerbaar)
te bepalen, zeg $M^m$, kan men Cayley-Hamilton tezamen met het
algoritme van Euclides gebruiken. Bepaal namelijk polynomen $q$ en
$r$ zodanig dat
$$x^m=q(x)p_M(x)+r(x),$$
met $\deg r<\deg p_M$. Dan is
$M^m=q(M)p_M(M)+r(M)$, zodat $M^m=r(M)$. Het polynoom $r$ heeft dan
kleine graad (maar mogelijk grote co\"effici\"enten!).

Net zo kan men het uitgebreide algoritme van Euclides toepassen om
polynomen $s$ en $t$ te bepalen waarvoor 
$$s(x) p_M(x)+t(x) x^m=1,$$
wanneer $M$ een inverteerbare matrix is. Deze gelijkheid van
lineaire afbeeldingen (met rechts de identieke afbeelding $1=\id$
impliceert met Cayley-Hamilton dat 
$M^{-m}=t(M)$. Omdat voor grote $m$ de graad van $t(x)$, die
begrensd wordt door de graad van $p_M$, veel kleiner
is dan $m$, kan dit een goed manier zijn om een grote {\it negatieve macht}
van een inverteerbare matrix uit te rekenen. Wederom kunnen de co\"effici\"enten
van $t(x)$ groot worden.

\begin{vbd}\rm
Laat
$$M=\left(\begin{array}{ccc} 2&1\\1&-1\end{array}\right),$$
dan vinden we eenvoudig $p_M(x)=x^2-x-3$. Volgens Cayley-Hamilton
is dus $M^2-M-3I=0$, zodat
$$M^{-1}={M-I\over 3}.$$
\end{vbd}

\opgave{Opgave}{Bereken $p_M$ op twee manieren.}

\opgave{Opgave}{Bereken $(M-I)/3$ en laat zien dat het de inverse van $M$ is.}

\medskip\noindent
Wanneer we met dezelfde $M$ de beschreven methode toepassen om
$M^{10}$ uit te rekenen, vinden we eerst de rest $r(x)=1159x+1524$
bij deling van $x^{10}$ door $p_M=x^2-x-3$; dan laat $M^{10}=r(M)$
zich eenvoudig bepalen.

\opgave{Opgave}{Bereken $q(x)$ en $r(x)$ zodat $x^{10}=q(x)p_M(x)+r(x)$.}

\opgave{Opgave}{Bereken $r(M)$, en vergelijk het resultaat (en de moeite!)
met een directe berekening van $M^{10}$.}

\opgave{Opgave}{Bepaal $M^{-10}$ met de methode uit \ref{toep:ch}, en met
behulp van de vorige opgaven.}

\section{Jordan normaalvorm}

We hebben reeds gezien dat lineaire transformaties niet altijd
diagonaliseerbaar zijn. Een belangrijke reden is dat het
karakteristieke polynoom niet noodzakelijk geheel in lineaire
factoren splitst over het lichaam waarover we werken. Maar zelfs als
dat wel het geval is --- bijvoorbeeld wanneer we over de complexe
getallen werken --- zien we uit Stelling \ref{st:diagequiv} dat
het voor diagonaliseerbaarheid
noodzakelijk is dat de dimensies van alle eigenruimten gelijk
zijn aan de multipliciteiten van de bijbehorende eigenwaarden.

\begin{vbd}\rm
Het is eenvoudig om voorbeelden van
lineaire transformaties te maken (in vectorruimten van eindige
dimensie over een willekeurig lichaam!) die niet diagonaliseerbaar zijn
terwijl het karakteristieke polynoom wel volledig in lineaire
factoren uiteenvalt. Zorg er bijvoorbeeld voor dat $0$ de enige eigenwaarde
is, door een bovendriehoeksmatrix voor de transformatie te kiezen met
bovendien {\it op} de diagonaal allemaal nullen. Dan is het karakteristieke
polynoom gelijk aan $x^n$, en $0$ de enige eigenwaarde, met
multipliciteit $n$. De eigenruimte bij $\lambda=0$ is de kern
van de matrix, waarvan de dimensie gelijk is aan $n-r$, met
$r$ de rang van de matrix. Zodra er niet-nul elementen in de bovendriehoek
staan is de rang groter dan nul en dus de dimensie van de kern kleiner dan $n$.
\end{vbd}

\medskip\noindent
Wat we in deze paragraaf willen laten zien is dat een lineaire
transformatie $T$ van een eindig-dimensionale vectorruimte $V$,
mits het karakteristieke
polynoom ervan geheel in lineaire factoren
uiteenvalt, `bijna diagonaliseerbaar' is, in een heel precieze zin.
Namelijk, dat er dan een basis voor $V$ bestaat ten opzichte waarvan
de transformatie een matrix heeft die bestaat uit `bijna-diagonaal' blokken.
Preciezer, ten opzichte van die basis is de matrix van $T$ de directe
som van Jordan blokken, waar een $k\times k$ {\it Jordan blok} $J_k(\lambda)$
een $k\times k$ matrix van de vorm
$$
\left(
\begin{array}{ccccc}
\lambda & 1 & 0 & \cdots & 0\\
0 & \lambda & 1 &  & 0\\
\vdots & \ddots & \ddots &\ddots  & \vdots\\
0 &  & \ddots & \lambda &1 \\
0 & \cdots & 0 &0 &\lambda \\
\end{array}\right)$$
is. Een directe som van Jordan blokken heet een {\it Jordan matrix}.

\opgave{Opgave}{Laat zien dat een Jordan matrix een diagonaalmatrix is
dan en slechts dan als alle blokken afmeting $1\times 1$ hebben.}

\opgave{Opgave}{Bewijs dat het karakteristieke polynoom van een Jordanmatrix
gelijk is aan $\prod (x-\lambda_i)$, waar de $\lambda_i$ de diagonaalelementen
van de matrix zijn.}

\opgave{Opgave}{Bewijs dat de dimensie van de eigenruimte
bij de eigenwaarde $\lambda$ van het Jordan blok $J(\lambda)$ precies $1$ is. Laat zien
dat hieruit volgt dat de dimensie van $E_\lambda$ voor een Jordanmatrix $J$ gelijk
is aan het {\it aantal} Jordanblokken $J(\lambda)$ in de directe
som die $J$ vormt.}

\opgave{Opgave}{Geef vier $4\times 4$ Jordanmatrices (over de rationale getallen)
met uitsluitend eigenwaarde $2$, en eigenruimten $E_2$ van dimensie respectievelijk
$1,2,3$ en $4$.}

\begin{dfs}\rm
Zij $T$ een transformatie van de eindig-dimensionale
vectorruimte $V$. Met $I$ geven we de identieke afbeelding $\id_V$ aan.
Een vector $v\in V$ met $v\neq0$ is {\it gegeneraliseerde eigenvector
bij $\lambda$} als er een $k\in\Z_{\geq 1}$ bestaat zodat $(\lambda I-T)^k(v)=0$.
De {\it gegeneraliseerde eigenruimte bij $\lambda$} van $T$ is de deelruimte
$$G_\lambda=\{ v\in V\ |\ \exists k\in\Z_{\geq 1} : (\lambda I-T)^k(v)=0\}.$$
\end{dfs}

\opgave{Opgave}{Laat zien dat een lineaire combinatie van twee gegeneraliseerde eigenvectoren
bij $\lambda$ inderdaad weer een gegeneraliseerde eigenvector bij $\lambda$ is.}

\opgave{Opgave}{Als $k$ minimaal is met de eigenschap dat $(\lambda I-T)^k(v)=0$, dan is
$(\lambda I-T)^{k-1}(v)$ een eigenvector van $T$. Toon dit aan en concludeer
dat gegeneraliseerde eigenvectoren alleen kunnen optreden bij 
eigenwaarden $\lambda$ van $T$.}

\opgave{Opgave}{Laat zien dat $G_\lambda$ invariant is onder $T$.}

\opgave{Opgave}{Bewijs dat $E_\lambda\subset G_\lambda$.}

\opgave{Opgave}{Bewijs dat alle basisvectoren gegeneraliseerde eigenvector
zijn voor $T$ als $T$ ten opzichte van de basis een Jordanmatrix is.}

\begin{vbd}\rm
Laat de $6\times 6$ Jordanmatrix $J$ gegeven zijn
als directe som van $J_1(2)\oplus J_2(5)\oplus J_3(2)$:
$$
\left(
\begin{array}{cccccc}
2 & 0 & 0 & 0 & 0 & 0\\
0 & 5 & 1 & 0 & 0 & 0\\
0 & 0 & 5 & 0 & 0 & 0\\
0 & 0 & 0 & 2 & 1 & 0\\
0 & 0 & 0 & 0 & 2 & 1\\
0 & 0 & 0 & 0 & 0 & 2\\
\end{array}\right)$$
ten opzichte van
de basis $b_1, \ldots, b_6$. De vectoren $b_1, b_2, b_4$ zijn dan eigenvectoren
(bij eigenwaarden $2,5,2$), terwijl $b_3, b_5, b_6$ gegeneraliseerde
eigenvector zijn, bij $5,2,2$. Immers, $(5I_6-J)(b_3)=b_2$, dus
$(5I_6-J)^2(b_3)=0$, en net zo 
$(2I_6-J)(b_6)=b_5$, en
$(2I_6-J)(b_5)=b_4$, zodat
$(2I_6-J)^3(b_6)=
(2I_6-J)^2(b_5)=
(2I_6-J)(b_4)=0$.
De ruimte $G_2$ is de directe som van een 1-dimensionale en een 3-dimensionale
deelruimte, terwijl $E_2$ dimensie $2$ heeft.
\end{vbd}

\begin{dfn}\rm
Als $v$ een gegeneraliseerde eigenvector van $T$ is bij
$\lambda$, en $m$ minimaal zodat $(\lambda I-T)^m(v)=0$, dan noemen we
$(\lambda I-T)^{m-1}(v)$,
$(\lambda I-T)^{m-2}(v)$, $\ldots$,
$(\lambda I-T)(v)$,$v$, 
een {\it cykel van gegeneraliseerde eigenvectoren} voor $T$ (van lengte $m$).

Merk op dat de eerste vector in zo'n cykel eigenvector bij $\lambda$ is en dat dit
ook de enige eigenvector in de cykel is.
\end{dfn}

\begin{lem}
De vectoren in een cykel van gegeneraliseerde eigenvectoren voor $T$
zijn lineair onafhankelijk.
\end{lem}

\noindent
{\bf Bewijs.} Met inductie naar de lengte $m$. Voor $m=1$ is het duidelijk.
Laat nu $v_{m-1}, \ldots v_{0}$ zo'n cykel zijn bij $\lambda$, en veronderstel dat
$\mu_{m-1}v_{m-1}+\cdots \mu_{0}v_{0}=0$. Pas $(\lambda I-T)$ toe: omdat 
$(\lambda I-T)v_i=v_{i+1}$ voor $i=m-2,\ldots, 0$ en 
$(\lambda I-T)v_{m-1}=0$, geeft dat 
$\mu_{m-2}v_{m-1}+\cdots \mu_{0}v_{1}=0$. Volgens de inductiehypothese zijn 
dan $\mu_i=0$ voor $i=m-2,\ldots, 0$ . Dan ook $\mu_{m-1}v_{m-1}=0$ en
dus $\mu_{m-1}=0$ (want $v_{m-1}\neq 0$ is eigenvector).

\medskip\noindent
In het voorbeeld zagen we dat bij Jordanblokken cykels van gegeneraliseerde
eigenvectoren horen. Dat is algemeen waar.

\begin{thm}
De matrix van de transformatie $T$ is ten opzichte van
een basis $\cal B$ een Jordanmatrix dan en slechts dan als $\cal B$ een vereniging
van cykels van gegeneraliseerde eigenvectoren is.
\end{thm}

\noindent
{\bf Bewijs.} Bij elk $k\times k$ Jordanblok hoort een cykel van lengte $k$, dat
is duidelijk. Omgekeerd geeft zo'n cykel $v_{k-1},\ldots v_{0}$
ook een Jordanblok, precies omdat steeds
$(\lambda I-T)v_i=v_{i+1}$ voor $i=k-2,\ldots, 0$ en
$(\lambda I-T)v_{k-1}=0$.

\medskip\noindent
Het idee is nu om bij elke eigenvector van $T$ een cykel van gegeneraliseerde
eigenvectoren van maximale lengte te maken, en als basis voor de ruimte de
vereniging van die cykels te nemen. We moeten nog laten zien dat zo'n
vereniging van cykels een linear onafhankelijk stelsel geeft, en dat we zo
een aantal vectoren krijgen dat de dimensie van de hele ruimte is.

We zagen al dat de cykels zelf louter onafhankelijke vectoren bevatten. De volgende
stelling zegt dat cykels bij {\it verschillende} eigenwaarden ook onafhankelijk
zijn. (Merk op dat uit het voorbeeld blijkt dat dat niet genoeg is: er kunnen
ook verschillende cykels bij dezelfde $\lambda$ zijn; merk ook op dat dit
stelling \ref{st:indep} generaliseert.)

\begin{thm} \label{st:genindep}
Als $x_i$ gegeneraliseerde eigenvector van $T$ is bij eigenwaarde $\lambda_i$,
en $\lambda_i\neq\lambda_j$ voor $1\leq i<j\leq k$, dan
zijn $x_1, x_2, \ldots, x_k$ lineair onafhankelijk.
\end{thm}

\noindent
{\bf Bewijs.}
Inductie naar $k$. Voor $k=1$ is de stelling zeker waar.
Zij $k>1$, en $x_i$ als in de stelling. 
Laat $m_i$ minimaal zijn met de eigenschap dat $(\lambda_i I-T)^{m_i}(x_i)=0$.
Dan is, zoals we al zagen, $w_i=(\lambda_i I-T)^{m_i-1}(x_i)$ eigenvector voor
$T$ bij de eigenwaarde $\lambda_i$.
Veronderstel nu eens dat
$$\mu_1x_1+\mu_2x_2+\cdots+\mu_kx_k=0,$$
dan is enerzijds
$$\left(\prod_{i=i}^{k-1}(\lambda_i I-T)^{m_i}\right)\cdot
(\lambda_k I-T)^{m_k-1}(\mu_1x_1+\mu_2x_2+\cdots+\mu_kx_k)$$
gelijk aan $0$, maar anderzijds gelijk aan
$$\mu_k\left(\prod_{i=i}^{k-1}(\lambda_i I-T)^{m_i}\right)\cdot w_k=
\mu_k\prod_{i=i}^{k-1}(\lambda_i -\lambda_k)^{m_i}\cdot w_i.$$
Maar $w_k$ is eigenvector bij $\lambda_k$, dus niet nul,
en ook is $\lambda_i\neq\lambda_k$. Maar dan moet $\mu_k=0$.
Op grond van de inductiehypothese is $x_1, \ldots, x_{k-1}$ lineair onafhankelijk,
dus zijn alle $\mu_i$ gelijk aan $0$: alle $x_i$ zijn lineair onafhankelijk.

\bigskip\noindent
\begin{gev}
Als ${\cal B}_i$ een basis is voor de gegeneraliseerde
eigenruimte $G_{\lambda_i}$, en $\lambda_i\neq \lambda_j$ voor $i\neq j$
dan is ${\cal B}_1, {\cal B}_2, \ldots {\cal B}_k$ een onafhankelijk stelsel.
\end{gev}

\begin{lem}
Als $C_1, \ldots, C_k$ cykels van gegeneraliseerde eigenvectoren van $T$
zijn bij dezelfde eigenwaarde $\lambda$, en de eigenvectoren 
$w_i\in C_i$ vormen een lineair onafhankelijk stelsel,
dan vormt $C=C_1\cup C_2 \cup \cdots \cup C_k$
een lineair onafhankelijk stelsel vectoren.
\end{lem}

\noindent
{\bf Bewijs.} Het bewijs gaat weer met inductie naar het aantal elementen
$n$ van $C$.
Voor de inductiestap kijken we naar de deelruimte
$W$ opgespannen door $n$ de elementen van $C_i$; die ruimte is invariant onder
$\lambda I-T$, en het beeld wordt opgespannen door de $n-k$ vectoren uit $C\setminus \{w_1, \ldots, w_k\}$
(de laatste vector uit elke cykel weggelaten). Onder de
inductiehypothese heeft dat beeld dan dimensie precies $n-k$. De kern van
$\lambda I-T$ bevat de $k$ onafhankelijke eigenvectoren $w_i$, en de
dimensiestelling zegt dan dat $W$ dimensie $n$ heeft.

\begin{gev}
Als het karakteristieke polynoom van de transformatie $T$ op $V$ volledig in
lineaire factoren splitst, dan bestaat er een basis voor $V$ ten opzichte waarvan
de matrix van $T$ Jordanmatrix is.
\end{gev}

\noindent
{\bf Bewijs.} Kies voor elke $\lambda$ een basis voor $E_\lambda$, en bij
elke basisvector een cykel van gegeneraliseerde eigenvectoren.

\begin{thm}
Laat $T$ een transformatie van de $K$-vectorruimte
$V$ zijn waarvoor het karakteristieke polynoom $p_T(x)$ over $K$ splitst
als $p_T(x)=(x-\lambda_1)^{m_1}\cdots (x-\lambda_k)^{m_k}$ (met
$\lambda_i\ne \lambda_j$ als $i\neq j$). Dan is voor $i=1,\ldots, k$:
$$G_{\lambda_i}=\ker((\lambda_i I-T)^{m_i}),\quad \dim G_{\lambda_i}=m_i.$$
\end{thm}

\noindent
{\bf Bewijs.} Kies een basis $\cal B$ voor $V$ ten opzichte waarvan $T$ een Jordanmatrix
heeft. Op de diagonaal komen precies $m_i$ eigenwaarden $\lambda_i$ voor, dus
$\dim G_{\lambda_i}\geq m_i$. Anderzijds vormt een vereniging van bases voor
$G_{\lambda_i}$ een basis voor $V$, dus
$$n=\sum_{i=1}^k
\dim G_{\lambda_i}\geq \sum_{i=1}^k m_i=n.$$
Omdat per definitie
$$G_{\lambda_i}\supset \ker((\lambda_i I-T)^{m_i}),$$
resteert slechts de bewering
$$G_{\lambda_i}\subset \ker((\lambda_i I-T)^{m_i}),$$
te bewijzen. Omdat $\dim G_{\lambda_i}=m_i$ kan geen cykel van
gegeneraliseerde eigenvectoren in $G_{\lambda_i}$ langer zijn dan
$m_i$. Dus elke vector in $\dim G_{\lambda_i}$ is bevat in
$\ker((\lambda_i I-T)^{m_i})$.

\begin{gev}
Onder dezelfde aannamen als in de voorgaande stelling
geldt: 
$$T \quad\hbox{\rm is diagonaliseerbaar}\qquad\iff\qquad \forall\lambda: G_{\lambda}=E_\lambda.$$
\end{gev}

\medskip\noindent
Op de uniciteit van de Jordan normaalvorm (op volgorde van de blokken na)
gaan we hier niet verder in.

