\def\t{{\sf T}}
\section{Enkele Constructies van Vectorruimten}
In deze sectie zullen we een aantal constructies van vectorruimten
geven die we in het vervolg zullen gebruiken.

\begin{dfn}{\bf [ Hom ]}\hfill\break\rm
Als $V$ en $W$ twee $K$-vectorruimten zijn, dan vormt de verzameling
van $K$-lineaire afbeeldingen van $V$ naar $W$ een $K$-vectorruimte,
$\Hom_K(V, W)$,
onder optelling gedefinieerd door
$$(f+g)(v)=f(v)+g(v), \quad \hbox{\rm voor}\ v\in V,$$
wanneer $f, g$ beide $K$-lineaire afbeeldingen van $V$ naar $W$ zijn, en
scalaire vermenigvuldiging
$$(\lambda f)(v)=\lambda\cdot f(v), \quad \hbox{\rm voor}\ v\in V,$$
voor elke $\lambda\in K$.
\end{dfn}

\begin{dfn}{\bf [ Duale ]}\hfill\break\rm
Als $W=K^{1}$ %, de $1$-dimensionale $K$-vectorruimte,
noemen we $\Hom(V, W)=\Hom(V, K)$ de {\it duale ruimte} van $V$, en
gebruiken we de notatie $V^*=\Hom(V, K)$, terwijl we de elementen van
die duale al lineaire functionalen noemden.
\end{dfn}

\begin{thm}
Als $V$ en $W$ eindig-dimensionale vectorruimten zijn
met $\dim V=m$ en $\dim W=n$,
dan is 
$$\Hom(V, W)\cong\Mat_{n\times m}(K).$$
In het bijzonder geldt: $\dim \Hom(V, W)=mn,$ en $\dim V^*=\dim V=m.$
\end{thm}

\noindent
{\bf Bewijs.} Kies $K$-bases $\cal B$ voor $V$ en $\cal C$ voor $W$.
De afbeelding $\psi\colon\ \Hom_K(V, W)\rightarrow\Mat_{n\times m}(K)$
die aan $f\in \Hom_K(V, W)$ de matrix ${}^{{\cal C}}\kern-2pt M_f^{{\cal B}}$ toevoegt is
surjectief (want we zagen al eerder dat elke $n\times m$ matrix
een $K$-lineaire afbeelding bepaalt), $K$-lineair (omdat de optelling en
scalaire vermenigvuldiging van lineaire afbeeldingen hetzelfde resultaat
oplevert als de overeenkomstige operatie op de bijbehorende matrices),
en heeft als kern slechts de nul-afbeelding (want als de beelden van
alle basisvectoren nulvectoren zijn moeten alle beelden wel nul zijn).
 

\begin{dfs}\rm
Zij $V$ een $K$-vectorruimte van dimensie $m$, en laat ${\cal B}=\{b_1$, $b_2$, $\ldots$
$b_m\}$ een basis
voor $V$ zijn. We defini\"eren de
lineaire functionalen $b^*_1, b^*_2, \ldots, b^*_m$ door
$b^*_i$ aan $v=v_1b_1+\cdots+v_ib_i+\cdots+v_mb_m\in V$
het element $v_i\in K$ toe te laten voegen;
deze $b^*_i$ heten de {\it co\"ordinatenfuncties}
van $V$ (met betrekking tot $\cal B$). Op grond van de volgende stelling
wordt ${\cal B}^*=\{b^*_1, b^*_2,\ldots, b^*_m\}$ de {\it duale basis}
van $V$ met betrekking tot $\cal B$ genoemd.
\end{dfs}

\opgave{Opgave}{Ga na dat $b^*_i(b_j)=\delta_{ij}$, waar als gebruikelijk
de Kronecker-delta gegeven is door $\delta_{ij}=1$ als $i=j$ en
$\delta_{ij}=0$ als $i\neq j$.}

\begin{thm}
Wanneer ${\cal B}=\{b_1, b_2, \ldots b_m\}$ een basis
voor $V$ is, dan vormt
${\cal B}^*=\{b^*_1, b^*_2,\ldots, b^*_m\}$ een basis voor
$V^*$.
\end{thm}

\noindent
{\bf Bewijs.} 
Het is duidelijk dat de $b^*_i$ elementen van $V^*$ zijn, zodat het
op grond van voorgaande stelling voldoende is te laten
zien dat de $b^*_i$ onafhankelijk zijn.
Veronderstel daartoe dat
$$\lambda_1b^*_1+ \lambda_2b^*_2+\cdots \lambda_mb^*_m=0\in V^*,$$
voor zekere $\lambda_i\in K$; dan is
$$0(b_i)=\lambda_1b^*_1(b_i)+ \lambda_2b^*_2(b_i)+\cdots \lambda_mb^*_m(b_i)=\lambda_i,$$
en dus zijn alle $\lambda_i=0$. Hetgeen te bewijzen was.

\opgave{Opgave}{Laat ${\cal B}=\{(2,1), (-1,3)\}$ $\Q$-basis voor
$\Q^2$ zijn. Bepaal ${\cal B}^*$.}

\begin{thm}\label{st:dubdua}
Voor een eindig-dimensionale vectorruimte $V$ geldt:
$$V\cong V^{**}.$$
\end{thm}

\noindent
{\bf Bewijs.} Definieer $\beta\colon\ V\rightarrow V^{**}$ door aan $v\in V$
de afbeelding $\hat v\colon\ V^*\rightarrow K$ toe te voegen waarvoor
$\hat v(u^*)=u^*(v)$ voor elke $u^*\in V^*$.  Dan is het gemakkelijk in te zien
dat $\hat v$ inderdaad een lineaire functionaal op $V^*$ is, dus een element
van $V^{**}$. Ook is eenvoudig in te zien dat $\beta$ een isomorfisme is,
als volgt. Lineariteit geldt omdat
$$\beta(v_1+\lambda v_2)(u^*)=u^*(v_1+\lambda v_2)=u^*(v_1)+\lambda u^*(v_2)=
(\beta(v_1)+\lambda \beta(v_2))(u^*).$$
Veronderstel dat $\beta(v)=0\in V^{**}$, dat wil zeggen
dat $\hat v(u^*)=0$ voor elke $u^*\in V^*$; als $v\neq 0$ dan
is $\{v\}$ aan te vullen tot een basis $\{v, b_2, \ldots, b_m\}$
voor $V$. Maar dan is $\hat v(v^*)=v^*(v)=1\neq 0$ in tegenspraak met
het bewezene, dus volgt uit $\beta(v)=0$ dat $v=0$, met andere woorden,
$\beta$ is injectief. Tenslotte is $\dim V^{**}=\dim V^*=\dim V$, en
dus is $\beta$ een isomorfisme.

\begin{dfn}\rm
Laten $V$ en $W$ eindig-dimensionale $K$-vectorruimten zijn van dimensie
$m$ en $n$. Als $f$ een $K$-lineaire afbeelding $f\colon\ V\rightarrow W$
is dan defini\"eren we de {\it getransponeerde} van $f$ als de
afbeelding $f^\t\colon\ W^*\rightarrow V^*$ waarvoor
$f^\t(w^*)=w^*\circ f$.
\end{dfn}

\opgave{Opgave}{Laat zien dat transponeren zo aan een element $f\in\Hom(V,W)$
een element $f^\t\in\Hom(\Hom(W,K),\Hom(V, K))$ toevoegt.}

\begin{thm}
Laten $V$ en $W$ eindig-dimensionale $K$-vectorruimten zijn met
bases ${\cal V}=\{v_1, \ldots, v_m\}$ en ${\cal W}=\{w_1, \ldots, w_n\}$.
Dan geldt:
$${}^{{\cal V}^*}\kern-2pt M_{f^\t}^{{\cal W}^*}=
({}^{{\cal W}}\kern-2pt M_{f}^{{\cal V}})^\t.$$
\end{thm}

\noindent
{\bf Bewijs.} De essenti\"ele stap in het bewijs is de volgende regel, die
laat zien dat ten opzichte van de basis $\cal V^*$ de $i$-de co\"effici\"ent
van $f^\t(w_j^*)$, die op plaats $i,j$ in de matrix voor $f^\t$ staat, gelijk
is aan
$$(w_j^*\circ f)(v_i)=w_j^*(\alpha_{1i}w_1+\cdots +\alpha_{ni}w_n)=\alpha_{ji},$$
waar $\alpha_{rs}$ op plaats $r,s$ in de matrix voor $f$ staat.


\begin{dfn}{\bf [ Quoti\"ent ]}\hfill\break\rm
Als $V$ een $K$-vectorruimte is, en $U$ een lineaire deelruimte, dan heet voor iedere $v\in V$
de verzameling
$$v+U=\{v+u \colon\ u\in U\},$$
een {\it nevenklasse} van $U$ in $V$. Omdat $v_1+U=v_2+U$ dan en slechts dan als
$v_1-v_2\in U$, geldt dat $v_1+U$ en $v_2+U$ ofwel disjunct zijn, ofwel samenvallen:
$$(v_1+U) \cap (v_2+U)=\empty\quad\mbox{of}\quad v_1+U=v_2+U.$$
Daarom splitsen de nevenklassen de hele ruimte op in een disjuncte vereniging.
Bovendien vormen de nevenklassen een vectorruimte, die we met $V/U$ aangeven, als
we optelling defini\"eren door $(v_1+U)+(v_2+U)=(v_1+v_2)+U$ en scalaire vermenigvuldiging
door $\lambda (v_1+U)=(\lambda v_1)+U$. De ruimte $V/U$ is de {\it quoti\"entruimte} van
$U$ in $V$.
\end{dfn}

\begin{thm}
Als $V$ een eindig-dimensionale vectorruimte is, dan geldt voor elke lineaire deelruimte $U$:
$$\dim V/U=\dim V-\dim U.$$
\end{thm}

\noindent
{\bf Bewijs.} Vul een basis $u_1, u_2, \ldots, u_k$ van $U$ aan tot een
basis $u_1, \ldots, u_k$, $u_{k+1}$, $\ldots$, $u_m$ van $V$. Dan vormen
$u_{k+1}+U, \ldots, u_{m}+U$ een basis voor $V/U$.
Een afhankelijkheid $\sum_{i=k+1}^m\lambda_i(u_i+U)=0$ impliceert
dat $\sum_{i=k+1}^m\lambda_iu_i\in U$, en dus het bestaan van 
$\lambda_1, \ldots, \lambda_k$ zodat $\sum_{i=k+1}^m\lambda_iu_i-\sum_{j=1}^k\lambda_ju_j=0$, in tegenspraak
met het gegeven dat $u_1, \ldots, u_m$ een basis van $V$ is.
Anderzijds impliceert datzelfde gegeven dat elke $v\in V$ te schrijven is
als $v=\sum_{i=1}^m\lambda_iu_i$, en omdat $\sum_{i=1}^k\lambda_iu_i\in U$,
is $v+U=\sum_{i=k+1}^m\lambda_iu_i+U$.

\bigskip\noindent
Als $V$ eindig-dimensionaal is heet de dimensie van $V/U$ wel de {\it co-dimensie}
van $U$ in $V$.

\opgave{Opgave}{Geef een mooier (basiskeuze-vrij) bewijs van bovenstaande
stelling door op de afbeelding $\phi:V\rightarrow V/U$, die aan $v\in V$
de nevenklasse $v+U$ toevoegt, de dimensiestelling \ref{st:dim} toe te passen.}

\begin{dfn}{\bf [ Directe som ]}\hfill\break\rm
Als $W$ een $K$-vectorruimte is en $V_1, V_2, \ldots, V_k$ zijn lineaire
deelruimten van $W$, dan is de {\it som} van die deelruimten de
lineaire deelruimte gedefinieerd door
$$V=\sum_{i=1}^k V_i=V_1+V_2+\cdots +V_k=\{ v_1+v_2+\cdots + v_k\ \colon\ v_i\in V_i\}.$$
Een som heet een {\it directe som} (en we schrijven 
$V=V_1\oplus V_2\oplus\cdots \oplus V_k$) als geldt dat elke $v\in V$
op precies \'e\'en manier te schrijven is als $v=
v_1+v_2+\cdots + v_k$ met $v_i\in V_i$ voor $1\leq i\leq k$.
\end{dfn}

\opgave{Opgave}{Ga na dat de som $V_1+\cdots +V_k$
een lineaire deelruimte van $W$ is.}

\begin{thm}\label{st:dsum}
Zij $V$ een vectorruimte met lineaire deelruimten $V_1, V_2, \ldots, V_k$.
Dan zijn de volgende beweringen equivalent:
\begin{hwitemize}
\item $V=V_1\oplus V_2\oplus\cdots\oplus V_k$;
\item $V=V_1+V_2+\cdots +V_k$ en $V_i\cap \sum_{j\neq i}V_j=\{0\}$ voor $i=1, 2,\ldots, k$;
\item ${\cal B}_1, {\cal B}_2, \ldots, {\cal B}_k$ vormen een basis voor $V$ als
${\cal B}_i$ een basis voor $V_i$ is (voor $1\leq i\leq k$).
\end{hwitemize}
\end{thm}

\noindent
{\bf Bewijs.} ((i) $\Rightarrow$ (ii)) Als $V=V_1\oplus V_2\oplus\cdots V_k$ dan zeker $V=V_1+V_2+\cdots V_k$,
en veronderstel
dat $v\in V_i\cap \sum_{j\neq i}V_j$. Dan is $0=0+0=v+(-v)$ en dat geeft twee verschillende
manieren om $0\in V$ als som van elementen van $V_i$ en $\sum_{j\neq i}V_j$ te schrijven,
in tegenspraak met de aanname dat de som direct is, tenzij $v=0$. Dus is $0$ de enige
vector in de doorsnede.

((ii) $\Rightarrow$ (iii)) Laat ${\cal B}_i=\{b_1^{(i)}, \ldots, b_{n_i}^{(i)}\}$
een basis voor $V_i$ zijn. Het is eenvoudig in te zien dat
${\cal B}={\cal B}_1, {\cal B}_2,\ldots,{\cal B}_k$ dan een opspannend stelsel
voor $V_1+V_2+\cdots +V_k$ is. We moeten laten zien dat
de voorwaarde $V_i\cap \sum_{j\neq i}V_j=\{0\}$ voor $i=1, 2,\ldots, k$ impliceert dat
${\cal B}$ een basis is. Veronderstel eens dat ${\cal B}$ geen basis is,
dan is er kennelijk een afhankelijkheid van de vorm
$$\sum_{j=1}^k (\lambda_{1}^{(j)} b_1^{(j)}+\cdots+\lambda_{n_j}^{(j)} b_{n_j}^{(j)})=0.$$
Veronderstel dat $\lambda_{r}^{(i)}\neq 0$ voor zekere $1\leq r\leq n_i$;
als voor elke $j\neq i$ en elke index $m$ met $1\leq m\leq n_j$ geldt
dat $\lambda_m^{(j)}=0$ dan is $w=\lambda_{1}^{(i)} b_1^{(i)}+\cdots+\lambda_{n_i}^{(i)} b_{n_i}^{(i)}=0$ met tenminste 1 co\"effici\"ent ongelijk aan $0$,
in tegenspraak met het feit dat ${\cal B}_i$ een basis voor $V_i$ is. Maar dan moet
$w\neq 0$, en is $w\in V_i$ en $-w\in\sum_{j\neq i}V_j$, en dus zit $w$ in
de doorsnede van beide, in tegenspraak met onze aanname.
Kennelijk kan er geen $\lambda_{r}^{(i)}\neq 0$ bestaan: het stelsel $\cal B$ is onafhankelijk.

((iii) $\Rightarrow$ (i)) Laat ${\cal B}_i$ een basis voor $V_i$ zijn, en veronderstel dat
${\cal B}={\cal B}_1, {\cal B}_2$, $\ldots $, ${\cal B}_k$ een basis voor $V$ is;
het is direct duidelijk dat $V=V_1+V_2+\cdots +V_k$, we moeten aantonen dat deze som {\it direct} is.
Veronderstel eens dat dit niet zo is, dat wil zeggen, er is een $v\in V$ die twee
schrijfwijzen $v=v_1'+\cdots+v_k'=v_1''+\cdots+v_k''$ heeft met $v_i', v_i''\in V_i$ voor $1\leq i\leq k$.
Voor tenminste \'e\'en $i$ is $v_i'\neq v_i''$; schrijf $w'=v_i'$ en $w''=v_i''$,
en ook $x'=\sum_{j\neq i}v_j'$ en $x''=\sum_{j\neq i}v_j''$. Dan is
$w'+x'=w''+x''=v$, en dus $w'-w''=x''-x'$.
Schrijf elk van de $v_r'$ en $v_r''$ nu op de basis ${\cal B}_r$ voor $1\leq r\leq k$;
dan hebben we een niet-triviale lineaire combinatie van elementen van ${\cal B}$ met als som $0$,
in tegenspraak met de veronderstelling dat ${\cal B}$ een basis voor $V$ is.

\begin{gev}Als $V=V_1\oplus V_2\oplus\cdots\oplus V_k$ dan is
$\dim V=\dim V_1+\dim V_2+\cdots+\dim V_k$.
\end{gev}

\begin{vbn}\rm
Elke vectorruimte is de directe som van de $1$-dimensionale
deelruimten opgespannen door een basisvector. Zo is $K^3$ natuurlijk te schrijven als
$K^3=K\oplus K\oplus K=K\cdot e_1\oplus K\cdot e_2\oplus K\cdot e_3$, maar ook is $K^3=K^2\oplus K$.

Als $U\subset V$ een lineaire deelruimte is, bestaat er altijd een deelruimte $T\subset V$ zodat
$T\oplus U=V$. Dat is eenvoudig in te zien door een basis van $U$ aan te vullen met vectoren
$t_1, \ldots, t_k$ tot een basis voor $V$. De ruimte opgespannen door de $t_i$ kan dan voor $T$
genomen worden. De ruimte $T$ heet in zo'n geval een {\it complement} van $U$.
\label{opg:basis}
\end{vbn}

\opgave{Opgave}
{Laat $B=\{b_1, b_2, b_3\}$ een basis voor $K^3$ zijn. Laat zien dat $K^3=S_{1,2}+S_{2,3}$
waar $S_{i,j}$ voor $i\neq j$ de ruimte opgespannen is door $B_{i,j}=\{b_i, b_j\}$. Laat ook zien
dat $K^3\neq S_{1,2}\oplus S_{2,3}$; toch is $B_{1,2}\cup B_{2,3}=B$. Dit is de reden dat
in \ref{st:dsum}(iii) niet gewoon kunnen schrijven: $\cup_i{\cal B}_i$ is een basis voor $V$ als
${\cal B}_i$ een basis voor $V_i$ is.}

\begin{dfn}\rm
De {\it directe som van vierkante matrices} $A^{(t)}\in\Mat_{n_t\times n_t}(K)$,
for $t=1, 2, \ldots k$, is de vierkante matrix $A\in\Mat_{n\times n}(K)$, met $n=n_1+n_2+\cdots+n_k$,
gedefinieerd door:
$$A_{i,j}=\left\{
\begin{array}{r@{\qquad}l}
A^{(1)}_{i,j}&0< i,j\leq n_1\\
A^{(2)}_{i,j}&n_1< i,j\leq n_2\\
\vdots\quad & \quad\vdots\\
A^{(k)}_{i,j}&n-n_k=n_{1}+n_2+\cdots+n_{k-1}< i,j\leq n_k\\
0            &\mbox{elders}.\\
\end{array}\right.$$
Dit schrijven we wel als
$$
A=A^{(1)}\oplus A^{(2)}\oplus\cdots \oplus A^{(k)}=\left(
\begin{array}{cccc}
A^{(1)} & 0 & \cdots & 0 \\
0 & A^{(2)} & \cdots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & A^{(k)} \\
\end{array}\right).$$
\end{dfn}

\begin{opn}\rm
Een matrix als in bovenstaande directe som $A^{(1)}\oplus A^{(2)}\oplus\cdots \oplus A^{(k)}$
heet wel een {\it blok-diagonaal matrix} bestaande uit
$k$ blokken. Elke matrix is een blok-diagonaal matrix bestaand uit 1 blok.
Een $n\times n$ diagonaalmatrix is een blok-diagonaal matrix bestaande uit $n$ blokken.

Het verband tussen directe sommen van deelruimten en van matrices wordt gegeven in
de stelling beneden; in volgende hoofdstukken zullen we ons bezighouden met
het vinden van geschikte blokken.
\end{opn}

\begin{dfn}\rm
Een lineaire deelruimte $U$ van een vectorruimte $V$ heet
{\it invariant met betrekking tot de lineaire transformatie} $\phi$ als geldt dat
$\phi(u)\in U$ voor alle $u\in U$. We schrijven ook wel $\phi[U]\subset U$.

Merk op dat $U$ niet {\it puntsgewijs invariant} hoeft te zijn, dat wil zeggen,
het hoeft niet zo te zijn dat $\phi(u)=u$ voor elke $u$.
\end{dfn}

\begin{thm}
Laat een eindig-dimensionale vectorruimte $V$ met een lineaire
transformatie $\phi$ gegeven zijn, en veronderstel dat er deelruimten
$U_1, U_2, \ldots, U_k$ van $V$ bestaan zodanig dat
$V=U_1\oplus U_2\oplus\cdots \oplus U_k$ en $U_i$ is invariant
ten opzichte van $\phi$. Dan geldt:
$$M_\phi=M_{\phi_1}\oplus M_{\phi_2}\oplus\cdots\oplus M_{\phi_k},$$
wanneer $\phi_i=\phi_{\vert U_i}$ de beperking tot $U_i$ is,
$M_\phi=M_\phi^{\cal B}$ de matrix van $\phi$ ten opzichte van
${\cal B}={\cal B}_1, {\cal B}_2, \ldots, {\cal B}_k$ is, en
$M_{\phi_i}=M_\phi^{{\cal B}_i}$ de matrix van $\phi_i$ ten opzichte van
${\cal B}_i$,
voor bases ${\cal B}_i$ van $U_i$.
\end{thm}

\noindent
{\bf Bewijs} Bekijk het beeld van een basis vector uit ${\cal B}_j$: dat
is een lineaire combinatie van de vectoren uit ${\cal B}_j$ zelf, gegeven
door de juiste kolom uit $M_{\phi_j}$.

\opgave{Opgave}{Laat zien dat $\{0\}$, $V$, $\ker\phi$ en $\im\phi$
invariante deelruimten zijn voor elke lineaire transformatie $\phi$ van 
een vectorruimte $V$.}

\opgave{Opgave}{Als $T$ en $U$ beide $K$-vectorruimten zijn kunnen we hun {\it directe product}
$T\times U$ defini\"eren als de verzameling $\{(t, u)\colon\ t\in T, u\in U\}$ met scalaire
vermenigvuldiging $\lambda (t,u)=(\lambda t, \lambda u)$, voor $\lambda\in K$.
Laat zien dat $T\times U$ een $K$-vectorruimte is van dimensie $\dim T+\dim U$.}

\opgave{Opgave}{Veronderstel dat $T$ en $U$ beide deelruimten zijn van de $K$-vectorruimte $V$.
Definieer de lineaire afbeelding $\phi\colon\ T\times U\rightarrow V$ door $\phi(t, u)=t-u$ voor
$t\in T$, $u\in U$. Gebruik $\phi$ om te bewijzen dat $\dim (T+U)-\dim(T\cap U)=\dim T+\dim U$.}

