\def\t{{\sf T}}
\def\lp{\rightarrow}
\def\llp{\longrightarrow}
\def\B{{\sf B}}
\def\desda{\Longleftrightarrow}
\def\E{{\cal E}}
\def\h{\frac{1}{2}}
\section{Bilineaire Vormen}
In dit hoofdstuk en het volgende gaan we gebruik maken van afstandsbegrip op
re\"ele en complexe vectorruimten. In het algemeen is er geen begrip afstand
(of lengte) gedefinieerd in een lichaam. Maar in $\C$, en dus in deellichamen
daarvan, is dat wel het geval. Het afstandsbegrip in een vectorruimte wordt
bepaald door het inproduct; dat is een speciaal geval van een bilineaire
vorm, die we wel voor willekeurige lichamen kunnen defini\"eren. 

\begin{dfn}\rm
Zij $V$ een $K$-vectorruimte. Dan heet een afbeelding $\B:V\times V \lp k$, die aan $(v, w)$
een getal $\B(v,w)$ toevoegt een {\it bilineaire vorm} als 
\begin{hwitemize}
\item[(1)] Voor elke $w\in V$ is de afbeelding $\B_w:V\lp k$, gedefinieerd door $\B_w(v)=\B(v,w)$, een $k$-lineaire afbeelding; en
\item[(2)] Voor elke $v\in V$ is de afbeelding $\B_v:V\lp k$, gedefinieerd door $\B_v(w)=\B(v,w)$, een $k$-lineaire afbeelding.
\end{hwitemize}
We noemen $\B$ {\em symmetrisch} als $\B(v,w)=\B(w,v)$ voor elke $v,w\in V$. \\
We noemen $\B$ {\em anti-symmetrisch} als $\B(v,w)=-\B(w,v)$ voor elke $v,w\in V$. 
\end{dfn}

\medskip\noindent
Het zal duidelijk zijn waar de naam vandaan komt: een bilineaire afbeelding is lineair in beide argumenten
$v, w$. Het belangrijkste voorbeeld van een bilineaire vorm wordt gegeven door het inproduct.

\begin{vbn}\rm\label{vb:in}\hfill%\break
\begin{hwitemize}
\item[(i)]
Het gewone inproduct op $\R^n$ gegeven door $\B(v,w)=<v,w>=\sum_{i=1}^nv_iw_i$ is een bilineaire vorm.
\item[(ii)] 
Als $A\in\Mat_{n\times n}(K)$ een $n\times n$ matrix is dan geeft de afbeelding $\B_A(v,w)=v^\t A w\in K$ een bilineaire vorm op $K^n$. 
\end{hwitemize}
De volgende stelling drukt uit dat wanneer we in $V$ een basis kiezen,
zeg $\E=\{e_1,\ldots,e_n\}$,
$\B$ vastligt door de waarden $\B(e_i, e_j)$ op deze basis. Bijgevolg kunnen
we $\B$ representeren door een matrix, namelijk de
matrix waarin op positie $i,j$ de waarde van $\B(e_i, e_j)$ staat.
\end{vbn}

\begin{thm}\label{st:bvc}
Als $\B$ een bilineaire vorm is op een vectorruimte $V$ met basis
$\E=\{e_1,\ldots,e_n\}$, dan geldt:
$$\B(a, b)=\B(\sum_{i=1}^n \alpha_i e_i, \sum_{j=1}^n \beta_j e_j)=\sum_{i=1}^n\sum_{j=1}^n\alpha_i\beta_j  \B(e_i,e_j)=a^\t\B(e_i,e_j)b.$$
\end{thm}

\noindent {\bf Bewijs.}
Gebruik achtereenvolgens lineariteit in het eerste en het tweede argument:
\begin{eqnarray*}
\B(a, b)=\B(\sum_{i=1}^n \alpha_i e_i, \sum_{j=1}^n \beta_j e_j)&=& \sum_{i=1}^n \alpha_i \B(e_i, \sum_{j=1}^n \beta_j e_j) \\
&=& \sum_{i=1}^n\sum_{j=1}^n\alpha_i\beta_j  \B(e_i,e_j)=a^\t\B(e_i,e_j)b.
\end{eqnarray*}

\begin{dfn}\rm
We noteren  de matrix met op plek $i,j$ het getal $\B(e_i,e_j)$ met $\Mat_{\B}^{\E}$ of $M_{\B}$ als de
basis duidelijk is.  Deze matrix heet de {\it Gram matrix} van $\B$. 
\end{dfn}

\begin{thm}
Zij $\B$ een bilineaire vorm. Zij $\mathsf{C}$ de bilineaire vorm gedefinieerd door $\mathsf{C}(v,w)=v^\t M_{\B}^{\E} w$. Dan geldt $\B=\mathsf{C}$.
\end{thm}

\noindent {\bf Bewijs.}
Voor de lezer.

\begin{opm}\rm
Blijkbaar heeft elke bilineaire vorm de vorm van voorbeeld \ref{vb:in}(2).
Na basiskeuze is elke bilineaire vorm te schrijven als:

\[ \B( \left(\begin{array}{c}
\alpha_1\\
\vdots\\
\alpha_n
\end{array}
\right) 
,
\left(\begin{array}{c}
\beta_1\\
\vdots\\
\beta_n
\end{array}
\right) 
)= \alpha_1a_{11}\beta_1+\alpha_1 a_{12}\beta_2+\ldots + \alpha_n a_{nn}\beta_n=
(\alpha_1,\ldots, \alpha_n) A  \left(\begin{array}{c}
\beta_1\\
\vdots\\
\beta_n
\end{array}
\right) \]
waar $A$ de matrix $(a_{ij})=M_{\B}$ is.
\end{opm}

\medskip\noindent
Veel eigenschappen van een bilineaire vorm $\B$ zijn van de matrix  $M_{\B}$ af te lezen. 

\begin{thm}
$$\B\quad\textsl{ is symmetrisch}\quad\desda\quad M_{\B}\quad\textsl{is symmetrisch.}$$
\end{thm}

\noindent {\bf Bewijs.}
$M_{\B}$ is symmetrisch dan en slechts dan als
$(M_{\B})_{ij}=(M_{\B})_{ji}$ voor alle $i,j$.
Per definitie is $(M_{\B})_{ij}=\B(e_i,e_j)$, dus symmetrie van
$M_{\B}$ is equivalent met:
$\B(e_i,e_j)=\B(e_j,e_i)$ voor alle $i,j$ hetgeen volgens Stelling \ref{st:bvc}
het geval is dan en slechts dan als
$\B(\sum_{i=1}^n \alpha_i e_i, \sum_{j=1}^n \beta_j e_j)=\B(\sum_{j=1}^n \beta_j e_j, \sum_{i=1}^n \alpha_i e_i)$ 
voor alle $\alpha_{1},\ldots,\alpha_n,\beta_1,\ldots,\beta_n$, dat wil
zeggen
$\B(v,w)=\B(w,v)$ voor alle $v,w$.

\medskip\noindent
In het bovenstaande hebben we niets ge\"eist over de gekozen
basis. Dus symmetrie is onafhankelijk van de keuze van basis.

\begin{gev}
Voor bases $\E, \mathcal{F}$ van $V$ geldt:
$$M_{\B}^{\E} \quad\textsl{symmetrisch}\quad\desda\quad M_{\B}^{\mathcal{F}}\quad\textsl{symmetrisch.}$$
\end{gev}
Zoals we ons in het vorige hoofdstuk afvroegen of we een matrix die een
lineaire afbeelding ten opzichte van een gekozen basis representeerde
altijd op diagonaalvorm konden brengen door basisverandering, zo kunnen
we hier dezelfde vraag stellen voor de matrix die een bilineaire 
vorm representeert. 

\begin{vbd}\rm
Zij $V=\R^3$ en laat
$$\B\big( (\alpha_1,\alpha_2,\alpha_3),(\beta_1,\beta_2,\beta_3)\big)= 
\alpha_1\beta_1-\alpha_1\beta_2-\alpha_2\beta_1+2\alpha_2\beta_2+4\alpha_3\beta_3.$$
We bekijken het effect van het gebruik van een andere dan de
standaardbasis $\E$; zij bijvoorbeeld
$\mathcal{F}:=\{f_1,f_2,f_3\}=\{e_1,e_1+e_2,\h e_3\}$. Laten we eens kijken hoe $\B$ er ten opzichte van $\mathcal{F}$ uitziet. 
\begin{eqnarray*}
&&\B(a_1 f_1+a_2f_2+a_3f_3, b_1f_1+b_2f_2+b_3f_3)\\
&&=\B(a_1e_1+a_2(e_1+e_2)+a_3\h e_3,b_1e_1+b_2(e_1+e_2)+b_3\h e_3)\\
&&= \B( (a_1+a_2)e_1+a_2e_2+\h a_3 e_3, (b_1+b_2)e_1+b_2e_2 +\h b_3 e_3)\\
&&= (a_1+a_2)(b_1+b_2)-(a_1+a_2)b_2-a_2(b_1+b_2)+2a_2b_2+4 (\h a_3 \h b_3 )\\
&&= a_1b_1+a_2b_2+a_3b_3.
\end{eqnarray*}
Ten opzichte van deze basis is de bilineaire afbeelding gewoon het 
inproduct!
\end{vbd}

\medskip\noindent
Het is dus van belang om bilineaire vormen op verschillende bases te 
beschouwen. Met $\B^{\mathcal{F}}$ zullen we de bilineaire vorm
ten opzichte van de basis $\mathcal{F}$ aangeven.

In het voorgaande voorbeeld:
$$B^{\E}\big( (\alpha_1,\alpha_2,\alpha_3),(\beta_1,\beta_2,\beta_3)\big)=\alpha_1\beta_1-\alpha_1\beta_2-\alpha_2\beta_1+2\alpha_2\beta_2+4\alpha_3\beta_3$$
en
$$B^{\mathcal{F}}\big( (\alpha_1,\alpha_2,\alpha_3),(\beta_1,\beta_2,\beta_3)\big)=
\alpha_1\beta_1+\alpha_2\beta_2+\alpha_3\beta_3.$$
De volgende Stelling geeft het verband tussen de
matrix $M_{\B}^{{\E}}=M_{\B^{\E}}$ en
de matrix $M_{\B}^{{\mathcal{F}}}=M_{\B^{\mathcal F}}$ aan.

\begin{thm}
Laten $\E$ en $\mathcal{F}$ bases voor $V$ zijn, en
zij $T=\Phi_{I}^{\mathcal{F}\llp\E}$, de transformatiematrix die $\mathcal{F}$ in $\E$ overvoert. Dan geldt:
\[ M_{\B}^{{\mathcal{F}}}= T^\t M_{\B}^{{\E}} T .\]
\end{thm}

\opgave{Opgave}{Bewijs deze bewering.}

\medskip\noindent
Ging een matrix die een lineaire afbeelding representeerde onder basistransformatie
over in een geconjugeerde matrix $T^{-1}MT$, de matrix van een 
bilineare vorm gaat over in $T^\t M_{\B} T.$

\begin{dfn}
We noemen twee vierkante matrices
$M, N\in\Mat_{n\times n}(K)$ {\it equivalent} als er een
inverteerbare $T$ bestaat zodat $M=T^\t NT$. We schrijven
$M\sim N$.
Twee bilineaire vormen $\B$ en $\mathsf{C}$ noemen we
{\em equivalent} (en we schrijven wel $\B\sim \mathsf{C}$) als
voor zekere basiskeuze geldt: $M_{\mathsf{C}}\sim M_{\B}$. 

Met andere woorden: $\B$ en $\mathsf{C}$ zijn equivalent als er bases
$\E, \mathcal{F}$ bestaan zodat $\B^{\mathcal{E}}=\mathsf{C}^{\mathcal F}$.
\end{dfn}

\opgave{Opgave}{Laat zien dat dit ook echt een equivalentierelatie definieert.}

\opgave{Opgave}
{Als er een inverteerbare $T$ is zodat $T^\t M_{\B}T$ een diagonaalmatrix is dan is $B$ symmetrisch. Bewijs dat.}

\medskip\noindent
We kunnen ons (wederom) afvragen of een symmetrsiche matrix altijd
{\it equivalent} is met een diagonaalmatrix. In dit geval is het antwoord
{\em `bijna altijd'} bevestigend.  Eerst maar eens een uitzondering.

\begin{vbd}\rm
Zij
\[ M=\left(\begin{array}{cc}
0&1\\
1&0\\
\end{array}\right) \in \Mat_{2\times 2}(\F_2). \]
Dan is $M$ niet equivalent met een diagonaalmatrix.  Kijk maar: laat $T$ een willekeurige inverteerbare matrix zijn dan
$$ T^\t MT=\left(\begin{array}{cc}
a&c\\
b&d\\
\end{array}\right) 
\left(\begin{array}{cc}
0&1\\
1&0\\
\end{array}\right) 
\left(\begin{array}{cc}
a&b\\
c&d\\
\end{array}\right) 
=
\left(\begin{array}{cc}
2ca&ad+bc\\
ad+bc&2bd\\
\end{array}\right) 
$$
en  $ad+bc =ad-bc = \det(T)\not = 0$ in $\F_2$. 

Dat dit niet werkt in dit geval heeft te maken met het feit dat in $\F_2$ de gelijkheid $2=0$ geldt.
In een lichaam met $2\not=0$ gaat het wel goed. 
\end{vbd}

\begin{thm} \label{st:diag}
Zij $M$ een symmetrische matrix over een lichaam $K$ van karakteristiek $\not = 2$. Dan is $M$ equivalent met 
een diagonaalmatrix $D$.
\end{thm}

\noindent {\bf Bewijs.}
We geven een bewijs in de vorm van een algoritme, dat je precies vertelt hoe je $D$ kunt construeren.
We veronderstellen dat $M\in\Mat_{n\times n}(K)$.

\noindent
{\underline{Stap 1}}:  Als $M$ een diagonaalmatrix is (bijvoorbeeld de nulmatrix, of een
$1\times 1$ matrix), dan ben je klaar.

\noindent
{\underline{Stap 2}}: Veronderstel dat $n\geq 2$. Allereerst moet je een $v_1$
vinden met $v_1^\t M v_1\not = 0$:

Als er een diagonaalelement $M_{ii}\neq 0$ is, kies dan
$v_1=e_i$ (want $e_i^\t Me_i=M_{ii}$). 

Zijn alle elementen op de diagonaal 0 zoek dan $i,j$ zodat $M_{ij}\not = 0$. Neem $v_1=e_i+e_j$, 
want $(e_i+e_j)^\t M(e_i+e_j)=e_i^\t Me_i+e_i^\t Me_j+e_j^\t Me_i+e_j^\t Me_j=
M_{ii}+M_{ij}+M_{ji}+M_{jj}=M_{ij}+M_{ji}=2M_{ij}\not=0$. 

\noindent
{\underline{Stap 3}}: Laat $w=Mv_1$, en bepaal de kern van de afbeelding $f: V\lp K$ gedefinieerd door $f(u)=u^\t w$.
Merk op dat dit een lineaire afbeelding is. 

Bovendien is $f$ surjectief: laat $a=f(v_1)\in K$, dan is $a\neq 0$ door de keuze van 
$v_1$. Voor $b\in K$ is $f\big((b/a)v_1\big)=(b/a)f(v_1)=b$. Omdat $n=\dim(\ker f)+\dim(\im f)$
heeft $\ker(f)\subseteq V$ dimensie $n-1$.

Laat $\{v_2,\ldots,v_n\}$ een basis voor $\ker f$ zijn.

\noindent
{\underline{Stap 4}}:
Maak nu $T_n=(v_1,v_2,\ldots,v_n)$, met de vectoren $v_i$ als kolommen. 

Stel $T_n$ is niet inverteerbaar. Dat is equivalent met:  $\{ v_1,v_2,\ldots,v_n\}$ is een afhankelijk stelsel.
Omdat $\{v_2,\ldots, v_n\}$ een onafhankelijk stelsel is, kan dat laatste alleen
als $v_1\in \{v_2,\ldots, v_n\}=\ker(f)$, oftewel $f(v_1)=0$; dat is in tegenspraak met de keuze in
Stap 2. 
Dus $T_n$ is inverteerbaar.

Bovendien is $T_n^\t MT_n$ van de vorm 
\[ \left(\begin{array}{cc}
a&0\\
0&M^{'}\\
\end{array}\right) \]
waar $M^{'}$ een symmetrische $(n-1)\times (n-1)$ matrix is,  
omdat 
$(T_n^\t MT_n)_{ij}=v_i^\t Mv_j$ en $v_iMv_1=f(v_i)=0$ voor $i>1$ want
$v_i\in \ker(f)$. 

Ga nu naar Stap 1 en herhaal de procedure voor $M^{'}$.

\smallskip\noindent
Het is duidelijk dat dit proces na eindig veel stappen een diagonaalmatrix $D$ oplevert.


\opgave{Opgave}{Ga na waar in het bewijs gebruikt is dat de karakteristiek van het lichaam
geen $2$ is.}

\medskip\noindent
Tot slot van deze paragraaf introduceren we kwadratische vormen.

\begin{dfn}\rm
Een {\it kwadratische vorm $Q$ over
een lichaam $K$ in $n$ variabelen}
is een homogeen polynoom van graad $2$ met co\"effici\"enten in $K$.
\end{dfn}

\begin{opm}\rm
Dat een polynoom
$P=P(x_1,x_2,\ldots,x_n)$ in $n$ variabelen
{\it homogeen van graad $k$} is betekent dat
wanneer we $P$ schrijven als som van termen
$$P=\sum p_{k_1,k_2,\ldots,k_n}x_1^{k_1}x_2^{k_2}\cdots x_n^{k_n},$$
met natuurlijke exponenten $k_j$, een co\"effici\"ent 
$p_{k_1,k_2,\ldots,k_n}$ alleen maar ongelijk $0$ mag zijn als
$k_1+k_2+\cdots+k_n=k$. Een kwadratische vorm bestaat dus uit termen
van de vorm $q_{i,j}x_ix_j$ (waar $i$ en $j$ gelijk kunnen zijn).

Door substitutie kunnen we een polynoom over een lichaam $K$ in
$n$ variabelen opvatten als een afbeelding van $K^n$ (of een willekeurige
$n$-dimensionale $K$-vectorruimte $V$) naar $K$; met andere woorden,
via
$$Q(v)=Q((v_1, v_2, \ldots, v_n))=Q(v_1,v_2,\ldots,v_n),$$
kan een kwadratische vorm als afbeelding $Q:K^n\rightarrow K$ worden
opgevat.
\end{opm}

\begin{thm}
Als $K$ een lichaam is van karakteristiek
ongelijk aan $2$ dan is er een \'e\'en-\'e\'enduidig verband tussen
kwadratische vormen in $n$ variabelen op $K$ en symmetrische $n\times n$
matrices over $K$.
\end{thm}

\noindent
{\bf Bewijs.} Laat 
$$Q(x_1, x_2, \ldots, x_n)=\sum_{1\leq i\leq j\leq n}q_{i,j}x_ix_j.$$
Definieer dan de matrix $P\in\Mat_{n\times n}(K)$ door $P_{ii}=q_{i,i}$
en $P_{ij}=q_{i,j}/2$ voor $i\neq j$; hier is $1\leq i,j\leq n$.

\begin{gev} 
Over een lichaam van karakteristiek ongelijk 2
kunnen we met een kwadratische vorm $Q$ in $n$ variabelen
een unieke symmetrische bilineaire vorm $\B$ op $K^n$, voorzien van
de standaardbasis, associ\"eren. Dan geldt: $Q(x)=\B(x,x)$.
\end{gev}

\noindent
{\bf Bewijs.} Deze associatie volgt uit de stelling, omdat een symmetrische
matrix $P$ uit $\Mat_{n\times n}(K)$ correspondeert met een
symmetrische bilineaire vorm op $K^n$ met een gegeven basis, via
$\B(v,w)=v^\t Pw$. Dan is $Q(x)=\B(x,x)$.

\opgave{Opgave}{Onder bovenstaande
correspondentie geldt: $\B(v,w)=(Q(v+w)-Q(v)-Q(w))/2$.}

\begin{vbd}\label{vbd:kwa}\rm
Laat $Q$ de kwadratische vorm in 3 variabelen
over $\Q$ zijn gegeven door $Q(x_1,x_2,x_3)=x_1^2+5x_1x_2+2x_2x_3+x_3^2$.
Dit is een homogeen polynoom, waarmee we de symmetrische matrix
$$\left(\begin{array}{ccc} 1&{5\over2}&0\\{5\over 2}&0&1\\0&1&1\end{array}
\right)$$
associ\"eren. Met $Q$ correspondeert dan de symmetrische bilineaire
vorm $\B(v,w)=v_1w_1+5/2 v_2w_1+5/2v_1w_2+v_2w_3+v_3w_2+v_3w_3$.
\end{vbd}


\section{Re\"eel-symmetrische bilineaire vormen}
In deze sectie laten we zien dat we symmetrische
bilineaire vormen (en daarmee kwadratische vormen)
op een re\"ele vectorruimte onder equivalentie
kunnen karakteriseren door drie invarianten.
\begin{dfn}\rm
Voor een re\"ele diagonaalmatrix $D$ defini\"eren we
de 3 natuurlijke getallen $n_0, n_+, n_-$ als volgt:
$n_0(D)$ is het aantal nullen op de diagonaal van $D$,
$n_+(D)$ is het aantal positieve elementen op de diagonaal van $D$, en
$n_-(D)$ is het aantal negatieve getallen op de diagonaal van $D$.
Voor een symmetrische bilineaire vorm $\B$ op een eindig-dimensionale
re\"ele vectorruimte $V$ defini\"eren we dan
$n_0(\B)=n_0(D)$, $n_+(\B)=n_+(D)$, $n_-(\B)=n_-(D)$, voor een
diagonaalmatrix $D$ met $D\sim M_\B$.
\end{dfn}

\bigskip\noindent
Merk op dat bij elke symmetrische $\B$ volgens Stelling \ref{st:diag} zo'n $D$ bestaat.
In het algemeen zijn er natuurlijk meerdere diagonaalmatrices die voldoen
(je kunt immers bijvoorbeeld de basisvectoren verwisselen, of met een factor
opblazen), maar
de volgende stelling drukt uit dat dit toch een goede definitie is, namelijk, dat
deze onafhankelijk is van de mogelijke keuze van $D$.

\opgave{Opgave}{Als $B=T^\t AT$ en $T$ is inverteerbaar, dan is $\rk(B)=\rk(A)$.}

\begin{thm}\label{st:ens}
Laat $\B$ een bilineaire vorm op een re\"ele $n$-dimensionale
vectorruimte $V$ zijn. Als $D\sim M_\B\sim D'$, met diagonaalmatrices
$D$ en $D'$, dan geldt:
$$n_0(D)=n_0(D'), \quad n_+(D)=n_+(D'), \quad n_-(D)=n_-(D').$$
\end{thm}

\noindent
{\bf Bewijs.} Merk eerst op dat $\sim$ een equivalentierelatie is, zodat
de twee diagonaalmatrices $D$ en $D'$ voldoen aan
$D\sim D'$, oftewel er is een inverteerbare $T$ zodat
$T^{\t}D'T=D$. Nu is $n_0(D)=n-\rk(D)$ de dimensie van de kern
van $D$, en net zo $n_0(D')=n-\rk(D')$ de dimensie van de kern van $D'$.
Maar omdat $T$ inverteerbaar is, geldt $\rk(D)=\rk(D')=r$ en dus $n_0(D)=n_0(D')$.

Laat ${\cal B}$ nu de basis van $V$ zijn ten opzichte waarvan $\B$ matrix
$D=M_\B^{\cal B}$ heeft, dan is $D'=T^{\t}D'T=D$ de matrix $M_\B^{{\cal C}}$
waar ${\cal C}=T{\cal B}$. We ordenen deze bases zo dat de eerste
$p=n_+(D)$, resp.~$p'=n_+(D')$ elementen $b_1, \ldots, b_p$ en
$c_1, \ldots, c_{p'}$ positieve waarden $\B(b_i,b_i)$ en $\B(c_j,c_j)$
opleveren, en de volgende $m=n_-(D)$, resp.~$m'=n_-(D')$ negatieve
waarden.

Veronderstel nu eens dat $p=n_+(D)<n_+(D')=p'$; omdat 
$n=n_0+n_++n_-$ voor een diagonaalmatrix, geldt dan
$m=n_-(D)>n_-(D')=m'$. Bekijk nu de verzameling
vectoren $S=\{b_1, b_2, \ldots, b_p, c_{p'+1}, \ldots c_{p'+m'}\}$.
Dat zijn er $p+m'<p+m=r$. De lineaire afbeelding $f:V\rightarrow \R^{p+m'}$
gegeven door
$$f(v)=(\B(v, b_1), \ldots, \B(v, b_p), \B(v, c_{p'+1}), \ldots \B(v, c_{p'+m'}))$$
heeft een beeld van dimensie $\leq p+m'<n-n_0(D)=r$, dus kern van dimensie
$\geq n-(p+m') > n-(n-n_0(D))=n_0(D)=n-r$, en daarom is er een $w$ in de kern van $f$
die niet bevat is in de ruimte opgespannen door
$\{b_{r+1}, \ldots, b_n\}$. Schrijf  $w$ op basis ${\cal B}$
en gebruik dat $w\in\ker f$, dan is voor $1\leq i\leq p$:
$$0=f(w)_i=\B(\sum_{k=1}^n w_k b_k, b_i)=w_i\B(b_i,b_i),$$
zodat 
$$\B(w,w)=\B(\sum_{k=1}^n w_k b_k,\sum_{k=1}^n w_k b_k)=\sum_{k=1}^n w_k^2\B(b_k,b_k)
=\sum_{k=p+1}^{p+m}w_k^2\B(b_k,b_k)<0,$$
omdat minstens \'e\'en $w_k\neq 0$.
Schrijf vervolgens $w$ op basis ${\cal C}$, dan is voor $p'+1\leq j\leq p'+m'$:
$$0=f(w)_j=\B(\sum_{k=1}^n w'_k c_k, c_j)=w'_j\B(c_j,c_j),$$
zodat 
$$\B(w,w)=\B(\sum_{k=1}^n w'_k c_k,\sum_{k=1}^n w'_k c_k)=\sum_{k=1}^n {w'_k}^2\B(c_k,c_k)
=\sum_{k=1}^{p'}{w'_k}^2\B(c_k,c_k)>0,$$
omdat weer minstens \'e\'en $w_k\neq 0$.
Maar dat is een tegenspraak!

Omdat het geval $n_+(D)>n_+(D')$ op precies dezelfde manier tot een 
tegenspraak leidt, moet $n_+(D)=n_+(D')$, en dus ook $n_-(D)=n_-(D')$.

\begin{gev}
Twee symmetrische bilineaire vormen op een re\"ele vectorruimte
$V$ zijn equivalent dan en slechts dan als hun invarianten $n_0, n_+, n_-$ hetzelfde zijn.
\end{gev}

\begin{gev}
Zij $\B$ een symmetrische bilineaire vorm op een re\"ele vectorruimte
$V$. Dan bestaat er een basis voor $V$ zodanig dat voor elk tweetal vectoren $v, w\in V$
met co\"ordinaten $v_i, w_i$ ten opzichte van deze basis geldt:
$$\B(v, w)=v_1w_1+\cdots+v_pw_p-v_{p+1}w_{p+1}-\cdots -v_rw_r,$$
waar $p=n_+(\B)\geq 0$, en $r=p+m$ met $m=n_-(\B)\geq 0$.
\end{gev}

\noindent
{\bf Bewijs.} De bewering is equivalent met de bewering dat de Gram matrix van $\B$
een diagonaalmatrix is (ten opzichte van zekere basis) met op de diagonaal 
$p$ getallen $1$, dan $m$ getallen $-1$ en
tenslotte $n-r$ getallen $0$. Stelling \ref{st:ens} zegt dat een basis ${\cal B}$ bestaat
zodat $M_\B$ diagonaalmatrix $D$ is met
positieve $D_{ii}$ voor $1\leq i\leq p$ en negatieve $D_{ii}$ voor $p+1\leq i\leq r$.
Vervangen we de basisvectoren $b_i$ door $b_i/\sqrt{\vert D_{ii}\vert}$
dan volgt de bewering.

\begin{vbd}\rm
We bekijken het voorbeeld uit \ref{vbd:kwa}, en laten $\B$ op $\R^3$ gegeven zijn door
$$M=\left(\begin{array}{ccc} 1&{5\over2}&0\\{5\over 2}&0&1\\0&1&1\end{array}
\right),$$
ten opzichte van de standaardbasis $e_1, e_2, e_3$.
Het algoritme uit het bewijs van \ref{st:diag} heeft het volgende effect.

Omdat $M_{11}\neq 0$ nemen we $v_1=e_1$; dan heeft $w=Mv_1$ co\"ordinaten
$1, 5/2, 0$ en de kern van de afbeelding $f(u)=u_1+5/2u_2$ wordt voortgebracht door
van $(-5/2,1,0)^\t$ en $(0,0,1)^\t$. Dat ebetekent dat we moeten kijken naar
$$T_3^\t M T_3=
\left(\begin{array}{ccc} 1&0&0\\-{5\over 2}&1&0\\0&0&1\end{array}
\right)
\left(\begin{array}{ccc} 1&{5\over2}&0\\{5\over 2}&0&1\\0&1&1\end{array}
\right)
\left(\begin{array}{ccc} 1&-{5\over2}&0\\0&1&0\\0&0&1\end{array}
\right)=
\left(\begin{array}{ccc} 1&0&0\\0&-{25\over 4}&1\\0&1&1\end{array}
\right),$$
en het algoritme met de $2\times 2$ deelmatrix herhalen. We vinden
$$T_2^\t M' T_2=
\left(\begin{array}{cc} 1&0\\ 1&{25\over 4}\end{array}\right)
\left(\begin{array}{cc} -{25\over 4}&1\\ 1&1\end{array}\right)
\left(\begin{array}{cc} 1&1\\ 0&{25\over 4}\end{array}\right)=
\left(\begin{array}{cc} -{25\over 4}&0\\0&{725\over 16}\end{array}\right).$$
Als diagonaalvorm van $\B$ vinden we dus (na normalisatie van de
lengten): $\B(v,w)=v_1w_1-v_2w_2+v_3w_3$.
\end{vbd}


\begin{gev}
Bij elke kwadratische vorm $Q$ in $n$
variabelen $x_i$ over $\R$ bestaat een lineaire transformatie
$T:\R^n\rightarrow \R^n$ zodanig dat voor de variabelen $y_i$,
gegeven door $y=Tx$ geldt: $Q(y)=\sum_{i=1}^n q_iy_i^2$.
Bovendien is het aantal $q_i$ dat positief, negatief, of nul
is onafhankelijk van de keuze van $T$, en kan $q_i\in\{-1,0,1\}$
door geschikte keuze van $T$ bereikt worden.
\end{gev}

\noindent
{\bf Bewijs.} Dit volgt onmiddellijk uit de resultaten van deze en
de vorige paragraaf.

\begin{vbd}\rm
Natuurlijk werkt het algoritme uit het bewijs van Stelling \ref{st:diag}
altijd, zoals in het voorgaande voorbeeld.
We geven een alternatieve methode om met de hand de `diagonaalvorm'
voor een kwadratische vorm te bepalen.

Daarvoor bezien we hetzelfde geval als in het vorige voorbeeld, waar
$Q$ correspondeert met
$$\left(\begin{array}{ccc} 1&{5\over2}&0\\{5\over 2}&0&1\\0&1&1\end{array}
\right),$$
dus  $Q(x_1,x_2,x_3)=x_1^2+5x_1x_2+2x_2x_3+x_3^2$. We proberen eerst alle
termen met $x_1$ erin als sommen (of verschillen) van kwadraten te schrijven;
$$x_1^2+5x_1x_2=(x_1+{5\over 2}x_2)^2-({5\over 2}x_2)^2,$$
en daarna hetzelfde voor $x_2$ (bedenk dat net we een term met $x_2^2$ hebben
toegevoegd!):
$$-({5\over 2}x_2)^2+2x_2x_3=-({5\over 2}x_2 - {2\over 5}x_3)^2,$$
zodat we vinden:
$$Q(x_1,x_2,x_3)=(x_1+{5\over 2}x_2)^2-({5\over 2}x_2 - {2\over 5}x_3)^2+{29\over 25}x_3^2.$$
Na overgang op nieuwe variabelen wordt dit: $Q(y_1, y_2, y_3)=y_1^2-y_2^2+y_3^2$.
\end{vbd}

\opgave{Opgave}{Schets voor alle mogelijk waarden van $(n_+, n_-, n_0)$
voor een symmetrische bilineaire $\B$ op $\R^3$ de oplossingsverzameling
in $\R^3$ van $Q(x_1,x_2,x_3)=0$.}

\def\vv{\vert\vert\relax}
\def\d{{\rm d}}
\def\Tr{{\rm Tr}}
\section{Inproductruimten}
We herhalen eerst de definitie van een re\"ele inproductruimte.
\begin{dfs}\rm
Een {\it inproduct} op een re\"ele vectorruimte $V$ is een
symmetrische bilineaire vorm $B$ op $V$ waarvan de bijbehorende
kwadratische vorm $Q$ {\it positief definiet} is op $V$,
dat wil zeggen, voor alle $0\neq v\in V$ geldt $Q(v)=B(v,v)>0$.
We geven zo'n inproduct meestal aan met $<v,w>$ in plaats van $B(v,w)$.
De ruimte $V$ voorzien van een inproduct heet een {\it inproductruimte}.

De {\it lengte} of {\it norm} $\vv v\vv$
van een $v\in V$ is gedefinieerd door $\vv v\vv=\sqrt{<v,v>}$.

De {\it afstand} $\d(v,w)$ tussen twee vectoren $v, w\in V$ is per definitie
de lengte van de verschilvector: $\d(v,w)=\vv v-w\vv$.

De {\it hoek} tussen niet-nul vectoren $v,w\in V$ is de hoek $\phi$
waarvoor de cosinusregel geldt:
$$\cos\phi={<v,w>\over \vv v\vv\cdot \vv w\vv}.$$

Twee vectoren $v, w$ staan loodrecht op elkaar (genoteerd als $v\perp w$)
als hun inproduct $0$ is: $<v,w>=0$. We zeggen ook wel dat $v$ en $w$
{\it orthogonaal} zijn; algemener is een stelsel van vectoren $v_1, v_2, \ldots, v_n$
{\it orthogonaal} als elk tweetal het is, dus $<v_i, v_j>=0$ voor $i\neq j$.
Het stelsel heet {\it orthonormaal} als het orthogonaal is en elk
vector lengte $1$ heeft: $\vv v_i\vv=1$.

Als $W$ een lineaire deelruimte is van een inproductruimte $V$ geven we
met $W^\perp$ de lineaire deelruimte aan van vectoren die orthogonaal zijn
met alle vectoren van $W$. Als verzameling is dus $W^\perp=\{ v\in V |
\forall w\in W : <v, w> = 0\}$.
\end{dfs}

\begin{opn}\rm
In een algemene $K$-vectorruimte kun je
niet over {\it positief definiet} spreken; het is dan ook niet zo duidelijk
hoe het lengtebegrip te generaliseren naar $K$-vectorruimten (maar
we zullen dat straks wel doen voor complexe vectorruimten). Omdat deellichamen
van $\R$ (zoals bijvoorbeeld $\Q$) de ordening van $\R$ erven, kunnen we
op vectorruimten over zulke lichamen wel eenvoudig dezelfde begrippen
defini\"eren.

Merk op dat de hoek tussen vectoren slechts bepaald is op veelvouden van
$2\pi$ na; vaak legt men de hoek eenduidig vast door een representantensysteem
modulo $2\pi$ te kiezen. Zowel $0\leq \phi<2\pi$ als $-\pi\leq\phi<\pi$
wordt daarvoor wel genomen.

De nulvector staat loodrecht op elke andere vector, maar maakt nooit
deel uit van een orthogonaal stelsel.

Een bondige manier om een orthonormaal stelsel te karakteriseren is door
het Kroneckersymbool,
$<v_i,v_j>=\delta_{ij}$. 
\end{opn}

\begin{vbn}\rm
\begin{hwitemize}
\item Het {\it standaardinproduct} op $\R^n$ wordt gedefinieerd door
$<v,w>=v_1w_1+\cdots +v_nw_n$; de lengte van $v=(v_1,v_2, \ldots,v_n)$
is dan \[\vv v\vv=\sqrt{v_1^2+v_2^2+\cdots+v_n^2}.\] Voor $n=1$ is
die lengte dus de absolute waarde: $\vv v\vv=\vert v\vert$. De ruimte
$\R^n$ voorzien van het standaardinproduct wordt wel de $n$-dimensionale
{\it Euclidische vectorruimte} genoemd.
\item Dit voorbeeld kwamen we ook al in {\bf Algebra 2} tegen:
De verzameling van re\"eelwaardige, continue functies $C([0,1])$
op het interval $[0,1]$ vormt een vectorruimte onder de gebruikelijke
optelling van functies en vermenigvuldiging met scalairen. We kunnen
deze tot een inproductruimte maken door
$$<f,g>=\int_0^1 f(x)g(x)\d x$$
als inproduct te nemen.
\item Op de vectorruimte $\Mat_{n\times n}(\R)$ van re\"ele $n\times n$
matrices (onder optelling) kunnen we een inproduct defini\"eren door
$<M,N>=\Tr(N^\t M).$
\end{hwitemize}
\end{vbn}

\opgave{Opgave}{Laat zien dat alle inproducten op $\R^n$ equivalent zijn
met het standaardinproduct (als bilineaire vorm).}


\opgave{Opgave}{Ga na dat $\Tr(N^\t M)$ een inproduct definieert.}

\noindent
De volgende stelling karakteriseert de inproducten onder de
bilineaire vormen, aan de hand van hun bijbehorende matrices.

\opgave{Opgave}{Laat zien dat als $M\sim N$ voor $M,N\in\Mat_{n\times n}(\R)$
dan $\det M>0\desda\det N>0$.}

\begin{thm} Als $M=M_\B$ de matrix van de symmetrische
bilineaire vorm $\B$ op de $n$-dimensionale re\"ele vectorruimte $V$
is ten opzichte van een willekeurige basis, dan geldt:
$$\B\quad\textsl{is een inproduct}\quad\desda\quad\det M^{(k)}>0\quad\textsl
{voor $1\leq k\leq n$,}$$
waar $M^{(k)}$ de $k\times k$ `linksbovendeelmatrix' $(M_{ij})_{1\leq i,j\leq k}$ is.
\end{thm}

\noindent
{\bf Bewijs} Kies een basis $\E=\{e_1, e_2, \ldots, e_n\}$
voor $V$ ten opzichte waarvan $M$ diagonaalvorm
heeft. Als $\B$ een inproduct is, geldt $M_{ii}=\B(e_i,e_i)>0.$
Voor elke $1\leq k\leq n$ geldt bovendien dat $\B$ een inproduct is op de 
ruimte opgespannen door
$e_1, \ldots, e_k$, en daarop is $M_\B=M^{(k)}$ en $\det M^{(k)}=
M_{11}\cdots M_{kk}>0$.

Laat, omgekeerd, $M=M_\B$ gegeven zijn ten opzichte van een
basis $\E$, en de eigenschap hebben dat de linksbovendeelmatrices
$M^{(k)}$ allemaal positieve determinant hebben. Bepaal dan voor
$k=1,2,\ldots, n$ met behulp van de Gram-Schmidt orthogonalisatiemethode
vectoren $f_1, f_2, \ldots, f_k$ uit $e_1, e_2, \ldots, e_k$ met
de eigenschappen dat 
$f_1, f_2, \ldots, f_k$ en $e_1, e_2, \ldots, e_k$ dezelfde deelruimte
van $V$ opspannen, dat 
$f_1, f_2, \ldots, f_k$ een orthogonaal stelsel vormt en dat
$\vv f_1\vv\cdot\vv f_2\vv\cdots \vv f_k\vv=\det M^{(k)}$.
Dan is ten opzichte van de basis $f_1,\ldots, f_n$ de symmetrische
vorm $\B$ gegeven door $\B(f_i,f_j)=0$ als $i\neq j$ en
$\B(f_i,f_i)=\det M^{(i)}/\det M^{(i-1)}>0$, voor $i=2,3,\ldots n$,
terwijl $\B(f_1,f_1)=M_{11}>0$. Dus is
$$\B(\sum_{i=1}^n \lambda_i f_i,\sum_{i=1}^n \lambda_i f_i)=\sum_{i=1}^n
\lambda_i^2\B(f_i,f_i)>0.$$

\medskip\noindent
Vervolgens defini\"eren we complexe inproductruimten. Het is niet goed genoeg
om naar bilineaire vormen te kijken, omdat de waarden van $\B(v,v)$ niet
altijd re\"eel zijn (en dan geen zinnige `lengte' geven).

\begin{dfs}\rm
Een {\it Hermitese vorm} op een complexe vectorruimte $V$ is
een afbeelding $\HH:V\times V\rightarrow \C$ die voldoet aan:
\begin{hwitemize}
\item[(1)] Voor elke $w\in V$ is de afbeelding $\HH_w:V\lp k$, gedefinieerd 
door $\HH_w(v)=\HH(v,w)$, een $\C$-lineaire afbeelding; en
\item[(2)] Voor elke $v,w\in V$ geldt $\HH(v,w)=\overline{\HH(w,v)}$, de
complex geconjugeerde van $\HH(w,v)$.
\end{hwitemize}
\end{dfs}

\opgave{Opgave}{Laat zien dat een Hermitese $\HH$ wel voldoet aan 
$\HH(v, w_1+w_2)=\HH(v, w_1)+\HH(v, w_2)$, maar dat $\HH(v,\lambda w)=\overline{\lambda}
\HH(v,w)$.}
\begin{opn}\rm
Vanwege de eigenschap uit de opgave noemt men $\HH$ wel sesquilineair
(`anderhalf lineair'). Merk ook op dat een Hermitese $\HH$ w\'el bilineair is
op een re\"ele (deel)vectorruimte, en dat $\HH(v,v)\in\R$ voor elke $v\in V$.
\end{opn}

\begin{dfs}\rm
Een {\it complex inproduct} is een positief definiete
Hermitese vorm $\HH$
op een complexe vectorruimte $V$, dus $\HH(v,v)>0$ voor $v\in V$.
Een paar bestaande uit $V$ met een complex inproduct heet een
{\it complexe inproductruimte}.
\end{dfs}

\begin{vbn}\label{def:compinp}\rm\hfill
\begin{hwitemize}
\item Het {\it standaardinproduct} op $\C^n$ is
$<v,w>=v_1\overline{w_1}+\cdots +v_n\overline{w_n}$; de lengte van $v=(v_1,v_2, \ldots,v_n)$
is dan $$\vv v\vv=\sqrt{v_1\overline{v_1}+v_2\overline{v_2}+\cdots+v_n\overline{v_n}}=
\sqrt{\vert v_1\vert^2+\cdots+\vert v_n\vert^2},$$ als we met $\vert a+b\ii =\sqrt{a^2+b^2}$
de modulus van een complex getal aangeven. Voor $n=1$ is
de lengte dus gewoon de modulus: $\vv v\vv=\vert v\vert$. 
\item De verzameling van {\it complex}waardige, continue functies op het interval
$[0,1]$ vormt een vectorruimte onder de gebruikelijke
optelling van functies en vermenigvuldiging met scalairen. We kunnen
deze tot een inproductruimte maken door
$$<f,g>={1\over 2\pi}\int_0^{2\pi} f(x)\overline{g(x)}\d x$$
als inproduct te nemen.
\item Op de vectorruimte $\Mat_{n\times n}(\C)$ van complexe $n\times n$
matrices (onder optelling) kunnen we een inproduct defini\"eren door
$<M,N>=\Tr(N^* M),$ waar $N^*=\overline{N^t}$ de {\it complex-geconjugeerde
getransponeerde} van $N$ is (die soms ook wel ge-adjungeerde wordt genoemd).
\end{hwitemize}
\end{vbn}

\opgave{Opgave}{Ga na dat 
$$<f,g>={1\over 2\pi}\int_0^{2\pi} f(x)\overline{g(x)}\d x$$
inderdaad een inproduct op $C^\C([0,2\pi])$
definieert; waar wordt de continu\"\i teit gebruikt?}

\opgave{Opgave}{Ga na dat $\Tr(N^*M)$ een inproduct definieert.}

\begin{thm}\label{st:drie}
Zij $V$ een inproductruimte over het lichaam $L$
der re\"ele of complexe getallen. Dan:
\begin{hwitemize}
\item[{\rm (i)}] voor elke $v\in V$ en $\lambda\in L$ geldt: $\vv \lambda v\vv=\vert\lambda\vert \cdot \vv v\vv$;
\item[{\rm (ii)}] $\vv v\vv\geq 0$; en bovendien geldt: $\vv v\vv =0\quad\desda\quad v=0$;
\item[{\rm (iii)}] voor elke $v,w\in V$ geldt: $\vert<v,w>\vert\leq \vv v\vv\cdot \vv w\vv$;
\item[{\rm (iv)}] voor elke $v,w\in V$ geldt: $\vv v+w\vv\leq \vv v\vv + \vv w\vv$.
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.}
Bewering (i) volgt onmiddellijk uit
$$\sqrt{<\lambda v,\lambda v>}=\sqrt{\lambda\overline{\lambda}<v,v>}=\vert\lambda\vert\sqrt{<v,v>}.$$
In het bijzonder is $<0,0>=0$, en omdat vanwege het positief definiet zijn van $<v,v>$ geldt
$\vv v\vv=\sqrt{<v,v>} > 0$ tenzij $<v,v>=0$, volgt (ii).

Als $w=0$ geldt ongelijkheid (iii) trivialerwijze; neem nu aan $w\neq 0$. Dan is voor $\lambda\in L$ de volgende uitdrukking niet-negatief::
$$\vv v-\lambda w\vv^2=<v-\lambda w,v-\lambda w>
=<v,v>-\overline{\lambda}<v,w>-\lambda<w,v>+\lambda\overline{\lambda}<w,w>.$$
Met de speciale keuze:
$$\lambda ={<v,w>\over<w,w>}$$
levert dat het niet-negatief zijn van
$$<v,v> - {\vert <v,w>\vert^2\over<w,w>}=\vv v\vv^2-{\vert <v,w>\vert^2\over \vv w\vv^2}$$
en dan volgt (iii).

Gebruik nu (iii) om te zien dat:
$$\vv v+w\vv^2=<v+w,v+w>=\vv v\vv^2+<v,w>+\overline{<v,w>}+\vv w\vv^2$$
en dat is ten hoogste $\vv v\vv^2+2\vv v\vv\cdot\vv w\vv+ \vv w\vv^2$
hetgeen gelijk is aan $(\vv v\vv+\vv w\vv)^2$.

\begin{opn}\rm De ongelijkheden in \ref{st:drie}(iii) en (iv) staan bekend als
de {\it Cauchy-Schwarz ongelijkheid} en de {\it driehoeksongelijkheid}; voor 
het re\'ele geval zagen we deze al in {\bf Lineaire Algebra 2}.
\end{opn}

