\def\vv{\vert\vert\relax}
\def\d{{\rm d}}
\def\Tr{{\rm Tr}}
\section*{Inleiding}
In de komende secties beschouwen we lineaire transformaties
van re\"ele en complexe inproduct\-ruimten die aan extra eigenschappen
voldoen die betrekking hebben op het verband tussen transformatie
en inproduct. Het zal blijken dat we daarmee ook eigenschappen
kunnen afleiden voor zulke transformaties die met diagonaliseerbaarheid
samenhangen. Steeds zullen we een begrip voor re\"ele inproductruimten
en een corresponderend begrip voor complexe inproductruimten invoeren,
en bovendien begrippen die op de bijbehorende matrices slaan. We moeten
ook sterker dan voorheen onderscheid maken tussen eindig- en oneindig-dimensionale
vectorruimten.
\section{Orthogonale en Unitaire Transformaties}
\label{sec:orthuni}
Het eerste paar begrippen zal blijken die transformaties te
karakteriseren die zowel lengten als hoeken behouden.
\begin{dfn}\rm
Een lineaire afbeelding $T:V\rightarrow W$ tussen re\"ele inproductruimten
heet een {\it isometrie} als geldt dat 
$$<Tv_1, Tv_2>=<v_1, v_2>\quad\textrm{voor alle $v_1, v_2\in V$.}$$
Als $T$ bovendien inverteerbaar is, dan heet $T$
{\it orthogonaal}.
\end{dfn}

\begin{thm}
Zij $T:V\rightarrow W$ een lineaire afbeelding
tussen re\"ele inproductruimten met $\dim V=\dim W$ eindig;
dan geldt: 
$$\textsl{$T$ is een isometrie}\quad\iff\quad\textsl{$T$ is orthogonaal.}$$
\end{thm}

\noindent
{\bf Bewijs.} De ene implicatie is duidelijk; voor de andere moeten
we bewijzen dat een isometrie $T$ inverteerbaar is. Omdat
$\dim V=\dim W=n<\infty$ volstaat het injectiviteit van $T$ te bewijzen,
dat wil zeggen, te laten zien dat $\ker T=\{0\}$. Veronderstel maar
dat $Tv=0$; omdat $<v,v>=<Tv,Tv>=0$ moet $v=0$.

\begin{dfs}\rm
We zeggen dat 
een lineaire afbeelding $T:V\rightarrow W$ tussen re\"ele inproductruimten
{\it lengten behoudt} als geldt $\vv Tv\vv=\vv v\vv$ voor alle $v\in V$;
we zeggen dat $T$ {\it hoeken behoudt} als voor elk tweetal
$v_1, v_2$ geldt dat de hoek tussen $Tv_1$ en $Tv_2$ gelijk is aan
de hoek tussen $v_1$ en $v_2$.
\end{dfs}

\begin{thm}
Een lineaire afbeelding $T:V\rightarrow W$ tussen re\"ele inproductruimten
behoudt lengten en hoeken dan en slechts dan als $T$ een isometrie is.
\end{thm}

\noindent
{\bf Bewijs.} Dit volgt direkt uit de definities van lengte, hoek, en 
isometrie.

\begin{dfn}\rm
Een matrix $M\in\Mat_{n\times n}(\R)$ heet
{\it orthogonaal} wanneer $M^\t M=I_n$.
\end{dfn}

\noindent
Deze definitie zegt dus dat van een orthogonale $M$ de kolommen een
orthonormaal stelsel vormen. De volgende stelling laat zien dat het
dubbele gebruik van dezelfde term `orthogonaal' geen misverstand is.

\opgave{Opgave}{Geldt voor een orthogonale matrix $M$ dat
$M M^\t=I_n$?}

\begin{thm} \label{st:ortho}
Zij $T$ een lineaire transformatie van
de $n$-dimensionale re\"ele inproductruimte $V$. Dan zijn equivalent:
\begin{hwitemize}
\item[{\rm (i)}] de transformatie $T$ is orthogonaal;
\item[{\rm (ii)}] er is een orthonormale basis $\E$ voor $V$ zodat
$M_T^{\E}$ een orthogonale matrix is;
\item[{\rm (iii)}] de matrix $M_T^{\cal B}$ is orthogonaal voor elke orthonormale
basis ${\cal B}$ van V;
\item[{\rm (iv)}] $T$ voert orthonormale bases voor $V$ over in orthonormale bases.
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.} 
Voor een orthonormale basis ${\cal B}=\{b_1, \ldots, b_n\}$ van $V$ is
$< Tb_i, Tb_j>$ het inproduct van twee kolommen van $M_T^{\cal B}$.
Als $T$ orthogonaal is, dan is het stelsel
$\{Tb_1, \ldots, Tb_n\}$ ook weer orthonormaal, dat wil zeggen,
$M_T^{\cal B}$ is een orthogonale matrix. Dus (i) impliceert (iii).

De kolommen van $M_T^{\cal B}$ vormen de beelden van $\{b_1, \ldots, b_n\}$
onder $T$; als deze kolommen een orthonormaal stelsel vormen wanneer
${\cal B}$ dat is, voert $T$ kennelijk elke orthonormale basis ${\cal B}$
over in een orthonormale basis $T{\cal B}$. Dat is (iv).

Als ${\cal B}$ een orthonormale basis voor $V$ is,
dan is
$$<v, w>=<\sum_{i=1}^nv_i b_i, \sum_{j=1}^nw_j b_j>=\sum_{i,j=1}^n v_iw_j<b_i,b_j>=\sum_{i=1}^n v_iw_i.$$
Als (iv) geldt, dan is ook $T{\cal B}=\{Tb_1, \ldots, Tb_n\}$ een
orthonormaal stelsel, en
$$<Tv, Tw>=<\sum_{i=1}^nv_i Tb_i, \sum_{j=1}^nw_j Tb_j>=\sum_{i,j=1}^n v_iw_j<Tb_i,Tb_j>=\sum_{i=1}^n v_iw_i,$$
dat wil zeggen: (i) geldt.

Omdat het duidelijk is dat (iii) ook (ii) impliceert, hoeven we tenslotte nog
slechts te laten zien dat uit (ii) ook weer (i) volgt. Als $M_T^\E$
orthogonaal is, dan is $T\E$ een orthonormaal stelsel, en volgt voor
elk tweetal $v,w\in V$ door ze op basis $\E$ te schrijven dat:
$$<Tv, Tw>=<T\sum_{i=1}^n v_ie_i, T\sum_{j=1}^n w_je_j>=\sum_{i,j=1}^n v_iw_j<Te_i,Te_j>=\sum_{i=1}^n v_iw_i,$$
net als
$$<v,w>=<\sum_{i=1}^n v_ie_i, \sum_{j=1}^n w_je_j>=\sum_{i=1}^nv_iw_i.$$

\opgave{Opgave}
{Laat zien dat de orthogonale $n\times n$ matrices over $\R$ een ondergroep
vormen van de groep $\Gl_n(\R)$.}

\medskip\noindent
Het complexe analogon van de orthogonale afbeelding is de unitaire afbeelding;
de naam wordt duidelijk uit de eerstvolgende stelling.

\begin{dfn}\rm
Een lineaire afbeelding $T:V\rightarrow W$ tussen 
complexe inproductruimten
heet een {\it unitaire} afbeelding als geldt dat
$$<Tv_1, Tv_2>=<v_1, v_2>\quad\textrm{voor alle $v_1, v_2\in V$,}$$
en bovendien dat $T$ inverteerbaar is.
\end{dfn}

\begin{thm}\label{st:unieig}
Voor een eigenwaarde $\lambda$ van een unitaire
transformatie geldt: $\vert \lambda\vert=1$.
\end{thm}

\noindent
{\bf Bewijs.} Laat $\lambda$ eigenwaarde zijn van de unitaire $T$, bij eigenvector
$v$. Dan is
$$<v,v>=<Tv, Tv>=<\lambda v, \lambda v>=\lambda\overline{\lambda}<v,v>,$$
dus $(1-\lambda\overline{\lambda})<v,v>=0$.
Omdat $v\neq0$ is $<v,v>\neq0$ en dus $\vert\lambda\vert=1$.

\opgave{Opgave}{Bewijs dat de eigenwaarden van een orthogonale
afbeelding slechts $\pm1$ kunnen zijn.}

\begin{dfn}
Een matrix $M\in\Mat_{n\times n}(\C)$ heet
{\it unitair} wanneer $\overline{M}^\t M=I_n$.
\end{dfn}

\begin{thm}
Zij $T$ een lineaire transformatie van
de $n$-dimensionale complexe inproductruimte $V$. Dan zijn equivalent:
\begin{hwitemize}
\item[{\rm (i)}] de transformatie $T$ is unitair;
\item[{\rm (ii)}] er is een orthonormale basis $\E$ voor $V$ zodat
$M_T^{\E}$ een unitaire matrix is;
\item[{\rm (iii)}] de matrix $M_T^{\cal B}$ is unitair voor elke orthonormale
basis ${\cal B}$ van V;
\item[{\rm (iv)}] $T$ voert orthonormale bases voor $V$ over in orthonormale bases.
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.}
Geheel analoog aan \ref{st:ortho}.

\bigskip\noindent
De volgende stelling laat zien dat unitaire afbeeldingen altijd diagonaliseerbaar zijn.

\begin{thm}\label{st:unibas}
Zij $T$ een unitaire lineaire transformatie van een
eindig-dimen\-si\-o\-na\-le complexe inproduct\-ruimte~$V$. Dan heeft $V$ een orthonormale
basis bestaande uit eigenvectoren voor $T$.
\end{thm}

\noindent
{\bf Bewijs.}
Met inductie naar de dimensie $n$ van $V$.

Als $n=1$ is er niets te bewijzen.

Veronderstel dat $n\geq2$; kies een eigenvector $w$ voor $T$ (dat kan
altijd omdat we over de complexe getallen werken!). Die kunnen we eventueel
normaliseren (tot lengte 1) door door de lengte te delen.
Laat $W$ nu de $1$-dimensionale deelruimte van $V$ opgespannen door $w$ zijn.
Omdat $w$ eigenvector is en $T$ inverteerbaar, is $T[W]=W$.
Beschouw ook $W^\perp$; dan is $T[W^\perp]\subset T[W]^\perp$,
want als $u\in W^\perp$ dan $Tu\in T[W]^\perp$ daar
$<Tu, Tw>=<u,w>$. Maar $V=W\oplus W^\perp$ (dit volgt bijvoorbeeld uit
Gram-Schmidt orthogonalisatie), zodat $V=T[V]=T[W]\oplus T[W]^\perp=
W\oplus T[W]^\perp$ zodat $T$ beperkt tot $W^\perp$ een transformatie
van een $n-1$-dimensionale deelruimte is, waarvoor de unitaire eigenschap
natuurlijk nog steeds geldt. De orthonormale basis van $W^\perp$
bestaande uit eigenvectoren voor (de beperking van) $T$, die op grond
van de inductiehypothese dan bestaat, kan met de genormaliseerde van
$w$ aangevuld worden tot zo'n basis voor heel $V$.

\section{Symmetrische en Hermitese Transformaties}
\label{sec:symherm}
\def\vv{\vert\vert\relax}
\def\d{{\rm d}}
\def\Tr{{\rm Tr}}
De volgende begrippen hebben bepaalde symmetrie-eigenschappen
ten aanzien van beide argumenten in een inproduct.
\begin{dfn}\rm
Een lineaire transformatie $T:V\rightarrow V$ van een re\"ele inproductruimte
heet een {\it symmetrische} transformatie als geldt dat 
$$<Tv_1, v_2>=<v_1, Tv_2>\quad\textrm{voor alle $v_1, v_2\in V$.}$$
\end{dfn}

\begin{thm}\label{st:symeig}
Zij $T$ een lineaire transformatie van
de $n$-dimensionale re\"ele inproductruimte $V$. Dan zijn equivalent:
\begin{hwitemize}
\item[{\rm (i)}] de afbeelding $T$ is symmetrisch;
\item[{\rm (ii)}] er is een orthonormale basis $\E$ voor $V$ zodat $M_T^{\cal E}$ symmetrisch is;
\item[{\rm (iii)}] de matrix $M_T^{\cal B}$ is symmetrisch voor elke orthonormale
basis ${\cal B}$ van V.
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.} 
Ten opzichte van een orthonormale basis ${\cal B}=\{b_1, \ldots, b_n\}$ van $V$ is
$< Tb_i, b_j>=M_{ji}$ en
$< b_i, Tb_j>=M_{ij}$, als $M_{kl}$ de $k$-de co\"effici\"ent van de $l$-de kolom
van $M=M_T^{\cal B}$ is, en die kolom is $Tb_l$. Als $T$ symmetrisch is, geldt
$$M_{ij}=< b_i, Tb_j>=< Tb_i, b_j>=M_{ji},$$
dus $M$ is een symmetrische matrix. Daarom volgt (iii) uit (i).

Het is duidelijk dat (ii) uit (iii) volgt.

Als (ii) geldt voor de
orthonormale basis ${\cal E}=\{e_1, \ldots, e_n\}$ van $V$, dan is
$$< Tv, w>=<\sum_{i=1}^n v_iTe_i, \sum_{j=1}^n w_je_j>=\sum_{i=1}^n\sum_{j=1}^n v_iw_j M_{ji},$$
voor elke $v, w$, en
$$< v, Tw>=<\sum_{i=1}^n v_ie_i, \sum_{j=1}^n w_jTe_j>=\sum_{i=1}^n\sum_{j=1}^n v_iw_j M_{ij}.$$
Beide inproducten zijn gelijk als $M=M_T^\E$ een symmetrische matrix is, en dan is
$T$ een symmetrische transformatie. Dus (i) volgt uit (ii).

\bigskip\noindent
Het complexe analogon van de symmetrische afbeelding is de Hermitese afbeelding.

\begin{dfn}\rm
Een lineaire transformatie $T:V\rightarrow V$ tussen
van een complexe inproductruimte
heet een {\it Hermitese} transformatie als geldt dat
$$<Tv_1, v_2>=<v_1, Tv_2>\quad\textrm{voor alle $v_1, v_2\in V$.}$$
\end{dfn}

\begin{thm}\label{st:hermeig}
Voor een complexe eigenwaarde $\lambda$ van een Hermitese
afbeelding geldt: $\lambda\in\R$.
\end{thm}

\noindent
{\bf Bewijs.} Laat $\lambda$ eigenwaarde zijn van de Hermitese $T$, bij eigenvector
$v$. Dan is
$$\lambda<v,v>=<\lambda v, v>=<Tv, v>=<v,Tv>=<v,\lambda v>=\overline{\lambda}<v,v>,$$
dus $(\lambda-\overline{\lambda})<v,v>=0$.
Omdat $v\neq0$ is is $\lambda=\overline{\lambda}$.

\begin{dfn}\rm
Een matrix $M\in\Mat_{n\times n}(\C)$ heet
{\it Hermites} wanneer $(M^*=)\overline{M}^\t =M$.
\end{dfn}

\begin{thm}
Zij $T$ een lineaire transformatie van
de $n$-dimensionale complexe inproductruimte $V$. Dan zijn equivalent:
\begin{hwitemize}
\item[{\rm (i)}] de afbeelding $T$ is Hermites;
\item[{\rm (ii)}] er is een orthonormale basis $\E$ zodat $M_T^{\cal E}$ Hermites is;
\item[{\rm (iii)}] de matrix $M_T^{\cal B}$ is Hermites voor elke orthonormale
basis ${\cal B}$ van V;
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.}
Geheel analoog aan \ref{st:symeig}.

\bigskip\noindent
Ook Hermitese afbeeldingen blijken weer diagonaliseerbaar te zijn.

\begin{thm}\label{st:hermbas}
Zij $T$ een Hermitese lineaire transformatie van een
eindig-dimensi\-o\-na\-le complexe inproductruimte $V$. Dan heeft $V$ een orthonormale
basis bestaande uit eigenvectoren voor $T$.
\end{thm}

\noindent
{\bf Bewijs.}
Het bewijs is vrijwel gelijk aan dat van \ref{st:unibas}, en gaat met
inductie naar $n=\dim V$.

Als $n=1$ is er niets te bewijzen.

Voor $n\geq2$ kiest men weer een eigenvector $w$ voor $T$, en
laat $W$ de $1$-dimensionale deelruimte van $V$ opgespannen door $w$ zijn.
Wederom is $T[W]\subset W$ en $T[W^\perp]\subset W^\perp$; dat laatste
omdat voor $u\in W^\perp$ en voor alle $y\in W$ nu geldt dat
$0=<u, Ty>=<Tu, y>$, dus $Tu\in W^\perp$.
Vanwege $V=W\oplus W^\perp$ en de inductiehypothese volgt de bewering.

\bigskip\noindent
In dit geval geldt een zelfde conclusie voor het re\"ele geval.

\begin{gev}\label{gev:symbas}
Zij $T$ een symmetrische lineaire transformatie van een
eindig-dimen\-si\-o\-na\-le re\"ele inproductruimte $V$. Dan heeft $V$ een orthonormale basis bestaande
uit eigenvectoren voor $T$.
\end{gev}

\noindent
{\bf Bewijs.}
Kies een orthonormale basis ${\cal B}$ voor $V$, dan is $M_T^{\cal B}$
een re\"eel symmetrische matrix, die ook een transformatie $\hat{T}$ op
$\C^n$ (met $n=\dim V$) definieert. Bovendien is $\hat{T}$ Hermites, zodat
$\hat{T}$ een eigenvector $w$
heeft met eigenwaarde $\lambda\in\R$ volgens \ref{st:hermeig}.
Het re\"ele (of het imaginaire) deel van $w$ is dan een
re\"ele eigenvector van $\hat{T}$, en dus van $T$. Maar dat betekent
dat bij elke symmetrische $T$ een {\it re\"ele} eigenvector gevonden
kan worden, en dus kan het bewijs met inductie net zo uitgevoerd worden
als van stelling \ref{st:hermbas}.

\opgave{Opgave}{Laat zien dat als $A, B$ Hermitese matrices zijn, ook
$AB+BA$ en $\ii (AB-BA)$ Hermites zijn. Geldt hetzelfde met symmetrisch in plaats van 
Hermites?}

\opgave{Opgave}{Laat zien dat $AB$ niet noodzakelijk Hermites is als de matrices
$A$ en $B$ het zijn.}

\opgave{Opgave}{Laat $A\in\Mat_{3\times3}(\R)$  de matrix
$${1\over 3}\left(\matrix{
{1} & {-2} & {-2} \cr
{-2} & {-2} & {1} \cr
{-2} & {1} & {-2} \cr}\right)$$
zijn. Bepaal een orthonormale basis van eigenvectoren van $A$
en bepaal ook een $B\in\Mat_{3\times3}(\C)$ met
$B^2=A$.}

\opgave{Opgave}{Bewijs dat voor een symmetrische re\"ele $n\times n$ matrix $A$ geldt:
$$\det A=\prod_{i=1}^n \lambda_i,$$
waar $\lambda_1, \ldots, \lambda_n$ de eigenwaarden van $A$ zijn. Geldt dit ook als
$A$ complex is?}

\section{Geadjungeerde en Normaliteit}
In \ref{sec:orthuni} en \ref{sec:symherm} werd bewezen dat voor het bestaan van
een orthonormale basis bestaande uit eigenvectoren van een lineaire transformatie $T$
in een eindig-dimen\-si\-o\-na\-le complexe inproductruimte $V$
het voldoende is dat $T$ Hermites is (volgens \ref{st:hermbas}) of dat $T$
unitair is (volgens \ref{st:unibas}). In deze paragraaf
onderzoeken we {\it noodzakelijke} voorwaarden voor $T$ voor het bestaan van
zo'n basis. Eerst een Lemma dat we al eens gebruikten.

\begin{lem}\label{lem:one}
Zij $V$ een eindig-dimensionale inproductruimte met 
orthonormale basis $\E=\{ e_1, e_2, \ldots, e_n\}$. Dan geldt:
\begin{hwitemize}
\item[{\rm (i)}] $%\displaystyle
x=\sum_{i=1}^n<x, e_i>\cdot e_i$ voor elke $x\in V$;
\item[{\rm (ii)}] als $T\colon V\rightarrow V$ lineaire transformatie is, dan
geldt $\displaystyle M_T^\E=\left(<Te_j, e_i>\right)_{i,j=1}^n$.
\end{hwitemize}
\end{lem}

\noindent
{\bf Bewijs.} (i) Volgt direct uit:
$$<x, e_i>=<\sum_{j=1}^nx_j\cdot e_j, e_i>=\sum_{j=1}^nx_j<e_j, e_i>=x_i,$$
omdat $\E$ een orthonormale basis is.

Gebruik voor (ii) dat de $j$-de kolom van $M_T^\E$ bestaat uit
het beeld van de vector $e_j$; volgens (i) is:
$$Te_j=\sum_{i=1}^n<Te_j, e_i>\cdot e_i,$$
en er volgt dat op de $i$-de plaats van de $j$-de kolom
$(M_T^\E)_{i, j}=<Te_j, e_i>$ staat.
\bigskip\noindent

\begin{thm}
Zij $V$ een eindig-dimensionale complexe inproductruimte, en laat
$U\colon V\rightarrow \C$ een lineaire afbeelding zijn. Dan bestaat
er een uniek bepaalde vector $y\in V$ zodat voor alle $x\in V$
geldt: $U(x)=<x, y>$.
\end{thm}

\noindent{\bf Bewijs.}
Kies een orthonormale basis $\{e_1, e_2, \ldots, e_n\}$, dan is
$y=\sum_{i=1}^n\overline{U(e_i)}\cdot e_i$ de gevraagde vector. Definieer
namelijk $S(x)=<x, y>$, voor alle $x\in V$, dan is $S$ lineair (omdat het
inproduct lineair in het eerste argument is), en er geldt:
$$S(e_j)=<e_j, y>=<e_j, \sum_{i=1}^n\overline{U(e_i)}\cdot e_i>=
\sum_{i=1}^n\overline{\overline{U(e_i)}}\cdot <e_j, e_i>=U(e_j).$$
Dus $S=U$. Dat bewijst het bestaan van $y$.

Om te laten zien dat $y$ uniek is, veronderstel je dat er een $y'$ zodat
ook $U(x)=<x, y'>$ voor alle $x$; met $U(x)=<x, y>$ volgt dan dat
$<x, y-y'>=0$ voor elke $x$. Kiezen we $x=e_i$ dan volgt dat de $i$-de
coefficient van $y-y'$ ten opzichte van de basis $\E$ gelijk $0$ moet
zijn. Omdat dit voor elke $i$ geldt is $y-y'=0$, dus $y=y'$.

\begin{thm}
Zij $V$ een eindig-dimensionale complexe inproductruimte, en laat
$T\colon V\rightarrow V$ een lineaire transformatie zijn. Dan bestaat
er een unieke lineaire transformatie $T^*\colon V\rightarrow V$ zodat
voor elke $x, y\in V$:
$$<Tx, y>=<x, T^*y>.$$
\end{thm}

\noindent{\bf Bewijs.}
Kies $y\in V$. Definieer de afbeelding $U\colon V\rightarrow \C$ door 
$U(x)=<Tx, y>$, voor alle $x\in V$. Dan is $U$ lineair omdat
$T$ en het inproduct het zijn:
$$U(x_1+x_2)=<T(x_1+x_2), y>=<Tx_1+Tx_2, y>=<Tx_1,y>+<Tx_2, y>$$
hetgeen gelijk is aan $U(x_1)+U(x_2)$,
en
$$U(\lambda x)=<T(\lambda x), y>=<\lambda Tx, y>=\lambda <Tx,y>=\lambda U(x).$$
Volgens de voorgaande Stelling is er dus een unieke vector $z\in V$ zodat
$U(x)=<x, z>$ voor alle $x\in V$.
Definieer nu $T^*\colon V\rightarrow V$ door $T^*y=z$, dan geldt zeker
$$<Tx, y>=U(x)=<x, z>=<x, T^*y>$$
voor alle $x, y\in V$. Bovendien is $T^*$
lineair, want
$$<x, T^*(y_1+y_2)>=<Tx, y_1+y_2>=<Tx, y_1>+<Tx,y_2>=<x,T^*y_1+T^*y_2>,$$
en
$$<x, T^*(\lambda y)>=<Tx, \lambda y>=\bar\lambda<Tx,y>=\bar\lambda <x, T^*y>=<x,\lambda T^*y>.$$

Tenslotte is $T^*$ uniek bepaald, want veronderstel dat er een lineaire
transformatie $R$ is zodat $<Tx, y>=<x, Ry>$ voor alle $x, y\in V$. Dan
is $<x, T^*y>=<x, Ry>$ voor alle $x, y$, dus $<x, (T^*-R)y>=0$. Dan moet
$(T^*-R)y=0$, voor alle $y\in V$, dus $T^*=R$.

\begin{dfn}\rm
De unieke $T^*$ bij een lineaire transformatie $T$ wordt de {\it geadjungeerde}
van $T$ genoemd.
\end{dfn}

\medskip\noindent
Deze geadjungeerde
heeft dus de eigenschap dat altijd $<Tx, y>=<x, T^*y>$. Maar  we weten
dat voor het inproduct ook geldt dat
$$<x, Ty>=\overline{<Ty, x>}=\overline{<y, T^*x>}=<T^*x, y>,$$
met andere woorden: mits men adjungeert mag de transformatie $T$ binnen
het inproduct van argument wisselen!

\begin{thm}\label{st:adj}
Zij $V$ een eindig-dimensionale complexe inproductruimte, en laten
$T$ en $U$ lineaire transformaties van $V$ zijn. Dan:
\begin{hwitemize}
\item $(T+U)^*=T^*+U^*$;
\item $(\lambda T)^*=\bar\lambda T^*$;
\item $(TU)^*=U^*T^*$;
\item $T^{**}=T$.
\end{hwitemize}
\end{thm}

\bigskip\noindent
Het bewijs van \ref{st:adj} bestaat uit eenvoudige verificatie. Maar het volgt ook
direkt uit de eigenschappen van matrices (zie beneden).

Voor {\it matrices} $A$ hadden we al eerder de notatie $A^*$ ingevoerd, zie
\ref{def:compinp}, en wel
om de complex-gecon\-ju\-geer\-de getransponeerde van $A$ aan te geven:
$A^*=\bar A^\t$. We laten nu zien dat dit niet een ongelukkige keuze van
notatie is: ten opzichte van een orthonormale basis is
de matrix van de geadjungeerde van $T$ inderdaad
de geconjugeerd-getransponeerde van de matrix van~$T$.

\begin{thm}\label{prop:admat}
Zij $V$ een eindig-dimensionale complexe
inproductruimte met orthonormale basis $\E$,
en laat $T\colon V\rightarrow V$ een lineaire transformatie zijn.
Dan geldt:
$$M_{T^*}^\E=(M_T^\E)^*.$$
\end{thm}

\noindent{\bf Bewijs.}
Laat $A=M_T^\E$ de matrix van $T$ ten opzichte van $\E$ zijn,
en $B=M_{T^*}^\E$ die van $T^*$. Dan (volgens \ref{lem:one}(ii)):
$$B_{i,j}=<T^*e_j, e_i>=<e_j, Te_i>=\overline{<Te_i, e_j>}=\bar A_{j, i},$$
zodat $B=\bar A^\t$.

\begin{pro}\label{prop:mateig}
Laten $A$ en $B$ element van $\Mat_{n\times n}(\C)$ zijn. Dan geldt:
\begin{hwitemize}
\item $(A+B)^*=A^*+B^*$;
\item $(\lambda A)^*=\bar\lambda A^*$;
\item $(AB)^*=B^*A^*$;
\item $A^{**}=A$.
\end{hwitemize}
\end{pro}

\noindent
{\bf Bewijs.} Volgt onmiddellijk uit de eigenschappen van complexe conjugatie
en transpositie.

\bigskip\noindent
Het bewijs van \ref{st:adj} volgt nu direkt uit \ref{prop:admat} en \ref{prop:mateig}.

\bigskip\noindent
De eerder geintroduceerde begrippen {\it Hermites} en
{\it unitair} voor lineaire transformaties 
van complexe vectorruimten zijn nauw verwant aan adjungeren. De eis voor
Hermites zijn was dat $<Tx, y>=<x, Ty>$ voor elke $x,y\in V$, terwijl
een unitaire afbeelding voldoet aan $<Tx, Ty>=<x, y>$ voor elke $x, y\in V$.
Met $I_V$ geven we de identieke afbeelding op $V$ aan.

\begin{pro}
Laat $T$ een lineaire transformatie
van de eindig-dimensionale complexe vectorruimte $V$ zijn. Dan geldt:
\begin{hwitemize}
\item $T$ is Hermites $\quad\iff\quad$ $T^*=T$,
\item $T$ is unitair $\quad\iff\quad$ $TT^*=I_V=T^*T$ $\quad\iff\quad$ $T^*=T^{-1}$.
\end{hwitemize}
\end{pro}

\noindent
{\bf Bewijs.} De transformatie $T$ is Hermites dan en slechts dan als $<Tx, y>=<x, Ty>$
altijd geldt; anderzijds geldt altijd $<Tx, y>=<x, T^*y>$ dus Hermites zijn
is equivalent met $T=T^*$.

Unitair zijn betekent dat altijd $<Tx, Ty>=<x, y>$. Maar er geldt ook steeds dat
$<Tx, Ty>=<T^*Tx, y>$ en dus is unitair zijn equivalent met $T^*T=I_V$. Dus $T^*=T^{-1}$, maar
dan is ook $T^*T=TT^*$.

\bigskip\noindent
We zagen ook reeds dat Hermites zijn
het bestaan van een orthonormale basis van eigenvectoren
impliceerde (en dus diagonaliseerbaarheid). De omgekeerde implicatie blijkt
in het complexe geval n\'\i et op te gaan:
een noodzakelijke en voldoende voorwaarde voor diagonaliseerbaarheid in
het complexe geval blijkt {\it normaliteit} te zijn.

\begin{dfn}
De lineaire transformatie $T$ van een complexe vectorruimte heet {\it normaal}
als $TT^*=T^*T$. We noemen een matrix $A\in \Mat_{n\times n}(\C)$ {\it normaal} wanneer
$A^*A=AA^*$.
\end{dfn}

\begin{gev}
$T$ is normaal dan en slechts dan als $M_T^\E$ normaal is, voor een orthonormale basis $\E$.
\end{gev}

\begin{gev}\label{gev:normal}\hfill
\begin{hwitemize}
\item Als $T$ Hermites is dan is $T$ normaal.
\item Als $T$ unitair is dan is $T$ normaal.
\end{hwitemize}
\end{gev}

\bigskip\noindent
Alvorens we afleiden dat normaliteit equivalent is met het bestaan van een
orthonormale basis van eigenvectoren,
bekijken we enkele eigenschappen van
normale transformaties.

\begin{thm}\label{st:normeig}
Laat $V$ een eindig-dimensionale complexe
inproductruimte met orthonormale basis $\E$ zijn
en laat $T\colon V\rightarrow V$ een lineaire transformatie zijn.
Als $T$ normaal is, dan geldt:
\begin{hwitemize}
\item $\Vert Tx\Vert=\Vert T^*x\Vert$ voor alle $x\in V$;
\item $T-\lambda I_V$ is normaal, voor elke $\lambda\in\C$;
\item als $v$ een eigenvector voor $T$ is met eigenwaarde $\lambda$, dan
is $v$ ook een eigenvector voor $T^*$, en wel met eigenwaarde $\bar\lambda$;
\item als $v_1$ en $v_2$ eigenvectoren van $T$ zijn bij verschillende
eigenwaarden, dan $<v_1, v_2>=0$.
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.} (i) Voor elke $x\in V$ geldt
$$\Vert Tx\Vert^2=<Tx, Tx>=<T^*Tx, x>=<TT^*x, x>=<T^*x,T^*x>=\Vert T^*x\Vert^2,$$
en lengten zijn altijd niet-negatief.

\noindent
(ii) Omdat $I_V^*=I_V$ is
\begin{eqnarray*}
(T-\lambda I_V)^*(T-\lambda I_V)&=(T^*-\bar\lambda I_V)(T-\lambda I_V)=
T^*T-\bar\lambda T-\lambda T^*+\vert\lambda\vert^2I_V=\cr
&=TT^*-\lambda T^*-\bar\lambda T+\vert\lambda\vert^2I_V=
(T-\lambda I_V)(T-\lambda I_V)^*.\cr
\end{eqnarray*}

\noindent
(iii) Beschouw $U=T-\lambda I_V$ voor de eigenwaarde $\lambda$ van $T$. 
Voor de bijbehorende eigenvector $v$ is dan $Uv=0$. Volgens
(ii) is $U$ normaal, zodat op grond van (i):
$$0=\Vert Uv\Vert=\Vert U^*v\Vert=\Vert (T-\lambda I_V)^*v\Vert=\Vert T^*v-\bar\lambda v\Vert,$$
en daarom is $T^*v=\bar\lambda v$.

\noindent
(iv) Omdat
$\lambda_1<v_1, v_2>$ gelijk is aan 
$$<\lambda_1v_1, v_2>=<Tv_1, v_2>=<v_1, T^*v_2>=<v_1, \bar\lambda_2v_2>=\lambda_2<v_1, v_2>,$$
en omdat $\lambda_1\neq \lambda_2$ volgt dat $<v_1, v_2>=0$.

\opgave{Opgave}{Waar in het bewijs van \ref{st:normeig}(iv) wordt normaliteit gebruikt?}

\begin{thm}\label{st:stnorm}
Zij $V$ een eindig-dimensionale complexe inproductruimte, en laat $T$
een lineaire transformatie van $V$ zijn.
Dan is $T$ normaal dan en slechts dan als er een orthonormale basis
voor $V$ is bestaande uit eigenvectoren van $T$.
\end{thm}

\noindent
{\bf Bewijs.} Veronderstel dat $T$ normaal is.
We plegen inductie naar de dimensie $n$. Als $n=1$ is het duidelijk.
Laat $\lambda$ een nulpunt zijn van het karakteristieke polynoom van $T$,
en zij $w$ een eigenvector van $T$ bij $\lambda$. Dan is $w$ ook
een eigenvector van $T^*$ (bij $\bar\lambda$). Zij
$W$ de ruimte opgespannen door $w$ en laat $x\in W^{\perp}$.
Dan is
$$<Tx, w>=<x, T^*w>=<x,\bar\lambda w>=\lambda<x, w>=0,$$
dus $Tx\in W^\perp$, dus $W^\perp$ is $T$-invariant.
Omdat $V=W\oplus W^\perp$, is
$W^\perp$ een $n-1$-dimensionale $T$-invariante ruimte, waarop
we de inductiehypothese kunnen toepassen: we vinden een orthonormale basis 
$w_2, w_3, \ldots, w_{n}$ van eigenvectoren van $T$. Dan is
$w/\Vert w\Vert, w_2, w_3, \ldots, w_{n}$ een basis van de gevraagde
vorm voor $V$.

Veronderstel, voor de omkering, dat ${\cal B}=\{b_1, \ldots, b_n\}$ een orthonormale
basis van $V$ is, bestaande uit eigenvectoren voor $T$. Ten opzichte van
die basis wordt $T$ gegeven door een diagonaalmatrix:
$$A=M_T^{\cal B}=
\left(
\matrix{
\lambda_1&0&\cdots&0\cr
0&\lambda_2&\cdots&0\cr
\vdots&\vdots&\ddots&\vdots\cr
0&0&\cdots&\lambda_n\cr}\right)
,$$
maar dan is
$$A^*=M_{T^*}^{\cal B}=
\left(
\matrix{
\bar\lambda_1&0&\cdots&0\cr
0&\bar\lambda_2&\cdots&0\cr
\vdots&\vdots&\ddots&\vdots\cr
0&0&\cdots&\bar\lambda_n\cr}\right)
$$
ook een diagonaalmatrix, en diagonaalmatrices commuteren, dus
$TT^*=T^*T$.

\begin{thm} 
Zij $V$ een eindig-dimensionale complexe inproductruimte, en laat $T$
een lineaire transformatie van $V$ zijn.
Dan is $T$ unitair dan en slechts dan als er een orthonormale basis
voor $V$ is bestaande uit eigenvectoren van $T$ bij eigenwaarden
van absolute waarde $1$.
\end{thm}

\noindent
{\bf Bewijs.}
Als $T$ unitair is dan is $T$ normaal (volgens Gevolg \ref{gev:normal}) en dus
bestaat er een orthonormale basis van eigenvectoren; elke eigenwaarde
$\lambda$ van een unitaire afbeelding heeft $\vert\lambda\vert=1$,
omdat unitaire afbeeldingen lengten behouden (zie \ref{st:unieig}).
Dat bewijst de ene implicatie.

Voor de omkering nemen we het bestaan aan van zo'n speciale basis ${\cal B}$
bestaande uit vectoren $b_i$ bij de eigenwaarden $\lambda_i$ met
$\vert \lambda_i\vert=1$. Dan is
$T$ normaal (volgens Stelling \ref{st:stnorm}), dus $b_i$ is ook
eigenvector van $T^*$ met eigenwaarde $\bar\lambda_i$ volgens \ref{st:normeig}. Dus:
$$T^*Tb_i=T^*(\lambda_i b_i)=\lambda_i\bar\lambda_i b_i=\vert\lambda_i\vert^2b_i=b_i,$$
dus $T^*T=I_V$ en $T$ is orthogonaal.

\bigskip\noindent
Tenslotte nog een stelling die verband legt tussen de begrippen
normaal en unitair voor matrices. 

\begin{dfn}\rm
Twee matrices $A$ en $B$ heten
{\it unitair equivalent} als $A=U^*BU$ voor een unitaire matrix $U$. Merk
op dat voor zulke matrices $U^*=U^{-1}$.
\end{dfn}

\begin{thm}\label{st:uniequi}
Laat $A\in \Mat_{n\times n}(\C)$. Dan is $A$ normaal
dan en slechts dan als $A$ unitair equivalent is aan een diagonaalmatrix.
\end{thm}

\noindent
{\bf Bewijs.} Als $A$ normaal is, dan bestaat er een orthonormale basis
voor de vectorruimte opgebouwd uit eigenvectoren van $A$
die orthonormaal zijn; maar na transformatie naar die basis
is $A$ dan op diagonaalvorm gebracht, en de transformatiematrix bestaat
uit de kolommen die de eigenvectoren zijn, en deze vormen een
orthonormaal stelsel. Dus is de transformatiematrix unitair.

Omgekeerd, veronderstel dat $A=U^*DU$, met $U$ unitair en $D$ een
diagonaalmatrix; dan:
$$AA^*=(U^*DU)(U^*DU)^*=(U^*DU)(U^*D^*U)=U^*DD^*U=U^*D^*DU=A^*A,$$
dus $A$ is normaal.

\bigskip\noindent
Voor re\"ele inproductruimten is de situatie een kleine beetje anders.
In dit geval blijkt symmetrie (het
re\"ele equivalent van Hermites) de belangrijke eigenschap te zijn. 

\begin{thm}
Zij $V$ een eindig-dimensionale re\"ele inproductruimte, en laat $T$
een lineaire transformatie van $V$ zijn.
Dan is $T$ symmetrisch dan en slechts dan als er een orthonormale basis
voor $V$ is bestaande uit eigenvectoren van $T$.
\end{thm}

\noindent
{\bf Bewijs.} Dit volgt direkt uit \ref{gev:symbas} en \ref{st:symeig}.

\begin{thm}
Laat $A\in \Mat_{n\times n}(\R)$. Dan is $A$ symmetrisch
dan en slechts dan als $A$ orthogonaal equivalent is aan een diagonaalmatrix.
\end{thm}

\noindent
{\bf Bewijs.} Net als in het complexe geval \ref{st:uniequi}.

\opgave{Opgave}{Geef een voorbeeld van lineaire transformatie $T$ van de $\R^2$
die wel voldoet aan $T^*T=TT^*$ maar die niet diagonaliseerbaar is.}

\opgave{Opgave}{Laat $\cal B$ de basis van $V=\R^3$ zijn bestaande uit
$$\left(\matrix{1\cr0\cr0\cr}\right),
\left(\matrix{1\cr {\sqrt{2}\over\sqrt{3}}\cr0\cr}\right),
\left(\matrix{2\cr 2{\sqrt{2}\over\sqrt{3}}\cr{1\over\sqrt{3}}\cr}\right)\quad
\textsl{en}\quad M_T^{\cal B}=\left(\matrix{1&2&4\cr 0&-1&-4\cr 0&0&1\cr}\right)$$
de matrix voor een lineaire transformatie $T$ van $V$.
Laat zien dat $T$ orthogonaal is, en dat $T$ symmetrisch is, en bepaal
een orthonormale basis van $V$ bestaande uit eigenvectoren voor $T$.}

\opgave{Opgave}{Laat het re\"ele lineaire stelsel vergelijkingen $Ax=b$
gegeven zijn door:
$$A=\left(\matrix{1&2&1\cr 1&-1&2\cr 1&5&0\cr}\right),\quad\textsl{en}\quad
b=\left(\matrix{4\cr -11\cr 19\cr}\right).$$
Bepaal een oplossing $v$ voor $AA^*v=b$ en laat zien dat $w=A^*v$ voldoet
aan $Ax=b$ en dat voor elke andere oplossing $w'$ geldt dat
$\vv w'\vv\geq \vv w\vv$.}

