Ook voor lineaire afbeeldingen herhalen we de belangrijkste definities
en stellingen uit het re\"ele geval
in de algemenere context van vectorruimten over een
willekeurig lichaam $L$.

\section{Lineaire Afbeeldingen}
\begin{dfs}\rm
Een {\it $L$-lineaire afbeelding} tussen $L$-vectorruimten
$V$ en $W$ is een afbeelding $f\colon\ V\rightarrow W$ die voldoet aan
\begin{hwitemize}
\item $f(v_1+v_2)=f(v_1)+f(v_2)$ voor alle $v_1, v_2\in V$;
\item $f(\lambda v)=\lambda f(v)$ voor alle $v\in V$ en $\lambda\in L$.
\end{hwitemize}
Als $V=W$ dan heet een $L$-lineaire afbeelding ook wel een {\it (lineaire)
transformatie} of een {\it endomorfisme}.
Als $W=L$ (de $L$-vectorruimte van dimensie $1$) dan heet een $L$-lineaire afbeelding ook wel een {\it lineaire functionaal}.
Een {\it isomorfisme (van vectorruimten)}
is een $L$-lineaire afbeelding die tevens bijectie is;
als er een isomorfisme tussen $V$ en $W$ bestaat heten ze {\it isomorf}:
$V\cong W$ (precieser: $L$-isomorf, notatie $V\cong_L W$).
In het speciale geval dat $W=V$ heet zo'n isomorfisme een {\it automorfisme}.
\end{dfs}

\opgave{Opgave}{Is draaiing over $\pi/4$ een $\Q$-lineaire afbeelding
op de deelruimte $\Q^2$ van $\R^2$?}

\opgave{Opgave}{Bewijs dat een $L$-lineaire afbeelding $f$ van $V$ naar $W$
een isomorfisme is dan en slechts dan als er een $L$-lineaire afbeelding
$g$ van $W$ naar $V$ bestaat met $g\circ f=\id_V$ en $f\circ g=\id_W$.
Deze $g$ heet de inverse van $f$, en noteren we met $g=f^{-1}$, en
$f$ heet dan ook wel inverteerbaar.}

\opgave{Opgave}{Geef een isomorfisme tussen $\Mat_{m\times n}(L)$ en $L^{mn}$.}

\begin{opn}\rm
Net als in het re\"ele geval volgt onmiddellijk uit de definitie
dat voor $L$-lineaire afbeelding geldt dat voor elk natuurlijk getal $n$
$$f(\lambda_1v_1+\cdots +\lambda_nv_n)=\lambda_1f(v_1)+\cdots+\lambda_nf(v_n),$$
als $v_i\in V$ en $\lambda_i\in L$ voor $1\leq i\leq n$,
dus $f$ is echt lineair.

Onder isomorfismen worden belangrijke lineaire eigenschappen behouden, zoals
(on)af\-han\-ke\-lijk\-heid.
Als twee $L$-vectorruimten dezelfde eindige dimensie
$n$ hebben, dan zijn ze daarom isomorf:
een isomorfisme wordt gegeven door de elementen van de basis van de \'e\'en
naar die van de ander af te beelden. Beide zijn dus isomorf met $L^n$.

Bij een lineaire afbeelding $f\colon\ V\rightarrow W$
horen twee lineaire deelruimten, namelijk de {\it kern} $\ker(f)\subset V$
en het {\it beeld} $\im(f)\subset W$. 
Dan is $f$ surjectief dan en slechts dan als $\im f=W$, en injectief
dan en slechts dan als $\ker f=\{0\}$.
Ook de volgende stelling geldt weer.
\end{opn}

\begin{thm}\label{st:dim}
Als $f\colon\ V\rightarrow W$ een $L$-lineaire afbeelding is, en $V$ is
eindig-dimen\-si\-o\-naal, dan zijn ook $\ker(f)$ en $\im(f)$ dat, en bovendien is
$$\dim\ker f+\dim \im f=\dim V.$$
\end{thm}

\opgave{Opgave}{Laat zien dat $\R$ en $\C$ niet isomorf zijn (als
$\R$-vectorruimte). Geldt $\Q\cong_{\Q}\R$?}

\opgave{Opgave}{Geef een isomorfisme van $\Q$-vectorruimten
tussen $\Q[x]$ en $\Q[\pi]$. Zijn $\R[x]$ en $\R[\pi]$ ook
isomorf?
Wat is de dimensie van $\R$ als $\Q$-vectorruimte?}

\opgave{Opgave}{Geldt $L^\infty\cong_L L[x]$?}
\def\matbas#1#2#3#4{{}^{\cal #4}\kern-2pt #1_{#2}^{\cal #3}}

\section{Matrices} \label{sec:mat}
Net als in het re\"ele geval kunnen we $L$-lineaire afbeeldingen
tussen eindig-dimen\-si\-o\-na\-le $L$-vectorruimten
altijd representeren met behulp van matrices; daarvoor is het nodig
dat we een basis ${\cal B}=\{b_1, \ldots, b_n\}$
voor $V$ kiezen en een basis ${\cal C}=\{c_1, \ldots, c_m\}$ voor $W$.
Dan kunnen we $f\colon\ V\rightarrow W$ geven door middel van
de matrix
$$
M_f=\matbas{M}{f}{B}{C}=\left(
\begin{array}{cccc}
m_{11} & m_{12} & \cdots & m_{1n} \\
m_{21} & m_{22} & \cdots & m_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
m_{m1} & m_{m2} & \cdots & m_{mn} \\
\end{array}
\right)\in\Mat_{m\times n}(L),
$$
die aangeeft wat het beeld $w$ (als co\"ordinatenvector ten opzichte van
de basis ${\cal C}$) is van een vector $v$ (gegeven als co\"ordinatenvector ten 
opzichte van de basis ${\cal B}$), namelijk
$$
M_{\kern-2pt f}(v)=
\left(
\begin{array}{cccc}
m_{11} & m_{12} & \cdots & m_{1n} \\
m_{21} & m_{22} & \cdots & m_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
m_{m1} & m_{m2} & \cdots & m_{mn} \\
\end{array}
\right)
\left(
\begin{array}{c}
v_1\\
v_2\\
\vdots\\
v_n\\
\end{array}
\right)=\left(
\begin{array}{c}
w_1\\
w_2\\
\vdots\\
w_m
\end{array}\right)=w.
$$
De matrix $M_f$ is dus sterk afhankelijk van de keuze van
de bases ${\cal B}$ en ${\cal C}$.
De kolommen van de matrix $\matbas{M}{f}{B}{C}$ bestaan uit beelden van de basisvectoren
$f(b_1), \ldots, f(b_n)$, uitgedrukt op de basis ${\cal C}$.

Het samenstellen van lineaire afbeeldingen $h=g\circ f$ 
waar $f\colon\ V\rightarrow W$ en $g\colon\ W\rightarrow X$,
correspondeert met het vermenigvuldigen van de bijbehorende matrices:
$M_h=M_gM_f$, waarbij we dan wel moeten zorgen dat $f$ en $g$ gegeven
worden ten opzichte van {\it dezelfde} basis $\cal C$ voor~$W$:
$$\matbas{M}{h}{B}{D}=
\matbas{M}{g}{C}{D}\cdot \matbas{M}{f}{B}{C}.$$
Een transformatie $f$ van $V$ is {\it inverteerbaar} als er een {\it inverse}
transformatie $f^{-1}$ van $V$ bestaat met de eigenschap dat 
$f^{-1}\circ f=f\circ f^{-1}=\id_V$, de identieke afbeelding op $V$.
Voor eindig-dimensionale vectorruimten is dat equivalent met de eis
dat $M_f$ een inverteerbare matrix is, en dan is $M_{f^{-1}}=M_f^{-1}$.

Laat $V$ nu eindig-dimensionaal met basis ${\cal B}=\{ b_1, b_2, \ldots, b_n\}$
zijn, en $f$ een lineaire transformatie van
$V$ die inverteerbaar is. Dan geeft $f$ een automorfisme van $V$, en vormen
de beelden $\{f(b_1), \ldots, f(b_n)\}$ ook weer een basis van $V$.
De matrix $\matbas{M}{f}{B}{B}$ heeft in de $i$-de kolom de co\"ordinatenvector
van het beeld $f(b_i)$ ten opzichte van de basis ${\cal B}$.
Nemen we als nieuwe basis ${\cal C}$ voor $V$ de vectoren $c_i=f(b_i)$, dan
kunnen we de matrix met in de $i$-de kolom de co\"ordinaten van
$f(b_i)=c_i$ op basis ${\cal B}$ natuurlijk ook interpreteren als de matrix
van de afbeelding die $c_i$ geschreven op basis ${\cal C}$ stuurt naar
$c_i$ geschreven op basis ${\cal B}$. Met andere woorden, 
$$\matbas{M}{\id}{C}{B}=\matbas{M}{f}{B}{B}.$$
Maar dan is de matrix die de $b_i$ op basis ${\cal C}$ schrijft ook
gemakkelijk te vinden:
$$\matbas{M}{\id}{B}{C}=\left(\matbas{M}{\id}{C}{B}\right)^{-1}=
\left(\matbas{M}{f}{B}{B}\right)^{-1}.$$
De matrices $\matbas{M}{\id}{C}{B}$ en $\matbas{M}{\id}{B}{C}$
zijn van groot belang; ze geven {\it co\"ordinaten\-trans\-for\-ma\-ties}. Als een
vector $v$ gegeven is op basis ${\cal B}$, dan is $\matbas{M}{\id}{B}{C}(v)$
dezelfde vector maar dan uitgeschreven op de basis ${\cal C}$.
Meestal is de matrix
$\matbas{M}{\id}{C}{B}$ gemakkelijk te vinden (omdat de kolommen
de co\"ordinaten van de nieuwe basisvectoren op de oorspronkelijke basis ${\cal B}$
zijn) terwijl je de inverse matrix
$\matbas{M}{\id}{B}{C}$ wilt gebruiken om een vector op de nieuwe
basis te schrijven.

\begin{vbd}\rm
We bekijken een eenvoudig voorbeeld in $\R^3$. Laat ${\cal B}$ de standaardbasis zijn,
ten opzichte waarvan de vector $v$ gegeven is. Gevraagd is om de vector $v$ uit
te drukken op een nieuwe basis ${\cal C}$, als bijvoorbeeld
$$v=
\left(
\begin{array}{c}
5\\2\\3\\
\end{array}
\right),\quad
{\cal C}=\left\{
\left(
\begin{array}{c}
-1\\0\\0\\
\end{array}
\right),
\left(
\begin{array}{c}
2\\1\\0\\
\end{array}
\right),
\left(
\begin{array}{c}
1\\1\\1\\
\end{array}
\right)\right\}.
$$
Omdat de vectoren $c_1, c_2, c_3$ hier een mooie `diagonaalvorm' hebben, kun
je het juiste antwoord direct aflezen: $v=3c_3-c_2-4c_1$. In het algemeen is
dat niet zo eenvoudig, maar volgt het antwoord uit 
$$\matbas{M}{\id}{B}{C}(v)=\left(\matbas{M}{\id}{C}{B}\right)^{-1}(v),$$
waar 
$\matbas{M}{\id}{C}{B}$ als kolommen $c_1, c_2, c_3$ op basis
${\cal B}$ heeft. Hier dus:
$$
\left(
\begin{array}{ccc}
-1&2&1\\
0&1&1\\
0&0&1\\
\end{array}
\right)^{-1}
\left(
\begin{array}{c}
5\\2\\3\\
\end{array}
\right)=
\left(
\begin{array}{ccc}
-1&2&-1\\
0&1&-1\\
0&0&1\\
\end{array}
\right)
\left(
\begin{array}{c}
5\\2\\3\\
\end{array}
\right)=
\left(
\begin{array}{c}
-4\\-1\\3\\
\end{array}
\right),$$
hetgeen overeenkomt met wat we al zagen.
\end{vbd}

\medskip\noindent
Laat $\Phi$ nu de matrix $\matbas{M}{\id}{C}{B}$ zijn. Dan zijn
we in staat om van een lineaire transformatie $g$ van $V$ gegeven
ten opzichte van de basis ${\cal B}$, ook de matrix van $g$ ten opzichte
van de nieuwe basis ${\cal C}$ te bepalen. Immers, om $g$ ten opzichte
van ${\cal C}$ te bepalen kunnen we eerst vectoren herschrijven van
${\cal C}$ naar ${\cal B}$, dan de $g$ ten opzichte van ${\cal B}$ nemen
en tenslotte weer teruggaan naar de basis ${\cal C}$. Dus:
$$\matbas{M}{g}{C}{C}=\Phi^{-1} \cdot\matbas{M}{g}{B}{B}\cdot\Phi.$$
Matrices $A, B\in \Mat_{n\times n}(L)$ waarvoor een inverteerbare
$C\in\Mat_{n\times n}(L)$
bestaat zodat $A=C^{-1}\cdot B\cdot C$ heten {\it geconjugeerd} (met elkaar, in
$\Mat_{n\times n}(L)$).
Het belangrijkste
thema van de volgende hoofdstukken zal zijn om een met $A$ geconjugeerde
matrix te vinden die prettigere eigenschappen heeft dan $A$ zelf, met andere
woorden, om door overgang op een andere basis een mooiere matrix voor een
gegeven afbeelding te vinden.

\opgave{Opgave}{Laat zien dat `geconjugeerd zijn' een equivalentierelatie
op $\Mat_{n\times n}(L)$ definieert.}

\begin{vbd}\rm
We geven een toepassing in $V=\R^2$, namelijk om de matrix $M_\ell$ te bepalen,
ten opzichte van de standaardbasis,
van de lineaire afbeelding $\ell$ die een gegeven vector spiegelt in de lijn
$y=3x$.
Laten we een speciale basis ${\cal B}=\{ b_1, b_2\}$ kiezen voor $\R^2$, en wel
zo dat de eerste basisvector $b_1$ op $\ell$ ligt, en de tweede er
loodrecht op staat. Dus, bijvoorbeeld,
\[
b_1=\left(
\begin{array}{c}
1\\3\\
\end{array}
\right),\quad
b_2=\left(
\begin{array}{c}
-3\\1\\
\end{array}
\right).
\]
De matrix
$\matbas{M}{\ell}{B}{B}$ voor spiegeling in de lijn $y=3x$ ten opzichte van de
basis ${\cal B}$ 
voor $\R^2$ is eenvoudig, immers het beeld van $b_1$ (die op $\ell$ ligt)
is $b_1$ zelf, en van $b_2$ (die loodrecht op $\ell$ staat) wordt het
spiegelbeeld $-b_2$; met andere woorden:
$$\matbas{M}{\ell}{B}{B}=\left(
\begin{array}{cc}
1&0\\
0&-1\\
\end{array}\right)
.$$
Volgens het bovenstaande is
$$\matbas{M}{\ell}{E}{E} =\Phi^{-1}\cdot \matbas{M}{\ell}{B}{B}\cdot \Phi,$$
waar $\Phi=\matbas{M}{\id}{E}{B}$ aangeeft hoe $e_i$ in $\cal B$ uit te drukken.
Nu is 
$$
e_1=
\left(
\begin{array}{c}
1\\0\\
\end{array}
\right)
=
{1\over 10}
\left(
\begin{array}{c}
1\\3\\
\end{array}
\right)
+
{-3\over 10}
\left(
\begin{array}{c}
-3\\1\\
\end{array}
\right)
={1\over 10}b_1+{-3\over 10}b_2,
$$
$$
e_2=
\left(
\begin{array}{c}
0\\1\\
\end{array}
\right)
=
{3\over 10}
\left(
\begin{array}{c}
1\\3\\
\end{array}
\right)
+
{1\over 10}
\left(
\begin{array}{c}
-3\\1\\
\end{array}
\right)
={3\over 10}b_1+{1\over 10}b_2,\quad
$$
dus
$$\matbas{M}{\id}{E}{B}=\Phi=
\left(
\begin{array}{cc}
{1\over 10}&{3\over 10}\\
{-3\over 10}&{1\over 10}\\
\end{array}
\right),$$
$$\matbas{M}{\id}{B}{E}=\Phi^{-1}=
\left(
\begin{array}{cc}
1&-3\\
3&1\\
\end{array}
\right), 
$$
zodat
$$\matbas{M}{\ell}{E}{E}=
\left(
\begin{array}{cc}
1&-3\\
3&1\\
\end{array}
\right)
\left(
\begin{array}{cc}
1&0\\
0&-1\\
\end{array}\right)
\left(
\begin{array}{cc}
{1\over 10}&{3\over 10}\\
{-3\over 10}&{1\over 10}\\
\end{array}
\right)=
\left(
\begin{array}{cc}
{-8\over 10}&{6\over 10}\\
{6\over 10}&{8\over 10}\\
\end{array}\right).
$$
In dit geval was het gemakkelijk om $\Phi^{-1}$ op te schrijven, en moesten we moeite
doen om $\Phi$ te vinden.
\end{vbd}

\section{Determinant}
Tot slot van deze sectie vatten we eigenschappen van de determinant
samen. Deze eigenschappen kunnen voor een willekeurig lichaam $L$
geheel analoog aan het geval $L=\R$ afgeleid worden; de determinant
wordt dan gedefinieerd als de unieke alternerende multilineaire afbeelding op
$\Mat_{n\times n}(L)$ die waarde $1$ heeft op de eenheidsmatrix $I_n$.

De {\it cofactor} van $A_{ij}$ is
$(-1)^{i+j}\det A_{(i,j)}$, waar $A_{(i,j)}$ 
de $(n-1)\times (n-1)$-matrix is verkregen uit $A$
door daaruit de $i$-de rij en de $j$-de kolom weg te laten.

Dan geldt in de eerste plaats (en dit kan zelfs als definitie voor
de determinant genomen worden) dat:
\begin{hwitemize}
\item[(1)] $\det(A)=A_{11}$ als $A\in\Mat_{1\times 1}(L)$;
\item[(2)] $\det(A)=A_{11}A_{22}-A_{21}A_{12}$ als $A\in\Mat_{2\times 2}(L)$;
\item[($n$)] $\det(A)=\sum_{i=1}^n (-1)^{i+j}A_{ij}\det A_{(i,j)}$ als $A\in\Mat_{n\times n}(L)$ en $1\leq j\leq n$.
\end{hwitemize}
Hier kan deze {\it ontwikkeling naar de $j$-de kolom} ook vervangen worden
door de {\it ontwikkeling naar de $i$-de rij}:
\begin{hwitemize}
\item[($n'$)] $\det(A)=\sum_{k=1}^n (-1)^{i+k}A_{ik}\det A_{(i,k)}$ met $1\leq i\leq n$.
\end{hwitemize}
In het bijzonder geldt voor een {\it bovendriehoeksmatrix} (waarin
onder de hoofddiagonaal allemaal nullen staan) en voor een {\it benedendriehoeksmatrix}
(alemaal nullen boven de diagonaal) dat $\det A=\prod_{i=1}^n A_{ii}$.

Ook geldt voor elke $A$ dat de determinant gelijk is aan de
determinant van zijn getransponeerde (verkregen
door te spiegelen in de hoofddiagonaal), dus $\det A=\det A^\textrm{\scriptsize\sc t}$.
Uit multilineariteit volgt ook dat:
\begin{hwitemize}
\item[$\bullet$] verwisseling van twee verschillende rijen (of kolommen) van $A$ tot vermenigvuldiging
van $\det A $ met $-1$ leidt;
\item[$\bullet$] vermenigvuldiging van een rij (of kolom) van $A$ met een scalar $\lambda$
tot vermenigvuldiging van $\det A $ met $\lambda$ leidt;
\item[$\bullet$] het optellen van een veelvoud van  een rij (of kolom) van $A$ bij een andere rij (of kolom)
$\det A $ ongemoeid laat.
\end{hwitemize}
Omdat ook geldt: $\det AB=\det A\cdot\det B$ voor elk tweetal $A, B\in\Mat_{n\times n}(L)$,
hebben we dat $A$ inverteerbaar is dan en slechts dan als
$\det A\neq 0$, en dan is $\det A^{-1}=(\det A)^{-1}$; bovendien is, als
$A$ inverteerbaar is
$$A^{-1}=\frac{1}{\det A}\adj A=\frac{1}{\det A}\left((-1)^{i+j}\det A_{(i,j)}\right)^\textrm{\scriptsize\sc T},$$
waar de {\it geadjungeerde} $\adj A$ van $A\in\Mat_{n\times n}(L)$ gedefinieerd is als de matrix
in $\Mat_{n\times n}(L)$ met op plaats $i,j$ de cofactor
$(-1)^{j+i}\det A_{(j,i)}$. Let op dat dit de $i,j$-de
cofactor van de {\it getransponeerde} van $A$ is!

\section{Toepassing: Regel van Cramer}
De regel van Cramer geeft over elk lichaam de unieke oplossing van
een stelsel van $n$ lineaire vergelijkingen in $n$ onbekenden wanneer
deze bestaat. Laat namelijk de vergelijkingen gegeven zijn door $A\cdot x=b$,
waar $b\in L^n$ een kolomvector is en $A$ een $n\times n$ matrix met
co\"effici\"enten uit $L$. Dan heeft dit stelsel een unieke oplossing
$x\in\R^n$ dan en slechts dan wanneer $\det A\ne 0$, en die oplossing
wordt gegeven door $x_k=\frac{\det A_k}{\det A}$, waar $A_k$ de matrix
is waarin de $k$-de kolom van $A$ is vervangen door de vector $b$.

Alhoewel dit een elegante formulering geeft, is deze methode aanzienlijk
omslachtiger in de praktijk dan het bepalen van de oplossing van het stelsel 
door middel van vegen.

\opgave{Opgave}{Laat zien dat als $R$ een commutatieve ring met $1$ is,
een element $A\in\Mat_{n\times n}(R)$ inverteerbaar is als
$\det R$ inverteerbaar is in $R$.}

\opgave{Opgave}{Laten $f$ en $g$ lineaire afbeeldingen zijn tussen 
$L$-vectorruimten $V$ en $W$. Bewijs dat geldt: $f=g$ dan en slechts
dan als $f(v)=g(v)$ voor alle $v\in V$ dan en slechts dan als
$f(b)=g(b)$ voor elke $b$ in een basis voor $V$.}

\opgave{Opgave}{Geef een isomorfisme tussen $L[x]^{(n)}$ en $L^{n+1}$.}

\opgave{Opgave}{Laat zien dat de afbeelding $d$ die aan $f\in L[x]$ diens
afgeleide $f'$ toevoegt een lineaire transformatie van $L[x]$ is.
Kies een basis ${\cal B}$ voor $L[x]$ en bepaal de matrix $M_{d^2}^{\cal B}$.
Bepaal ook een basis voor de kern en voor het beeld van $d^2$.}

\begin{vbd}\rm
In dit uitgewerkte voorbeeld willen we de volgende vraag beantwoorden: hoe ziet
de matrix van de lineaire transformatie $F$ van $\Q^2$ er uit wanneer is
gegeven dat
$$F:
\left(\begin{array}{c}1\\2\\\end{array}\right)
\mapsto
\left(\begin{array}{c}4\\-1\\\end{array}\right)
$$
en
$$F:
\left(\begin{array}{c}-1\\1\\\end{array}\right)
\mapsto
\left(\begin{array}{c}-1\\-5\\\end{array}\right).
$$
Omdat deze vraag alleen zinvol is wanneer we zeggen
ten opzichte van welke basis voor $\Q^2$ de matrix dient te worden
gespecificeerd, voegen we hieraan toe dat we het antwoord zowel
willen ten opzichte van de basis waarvoor we boven de co\"ordinaten van
de vectoren hebben uitgedrukt --- laten we zeggen $\cal E$ --- als
ten opzichte van de basis
$${\cal B} = \{ b_1, b_2 \},\quad\textrm{met}\quad  b_1=\left(\begin{array}{c}1\\2\\\end{array}\right),\quad
b_2=\left(\begin{array}{c}-1\\1\\\end{array}\right),$$
(waar de co\" ordinaten van $b_1, b_2$ weer ten opzichte van $\cal E$ zijn gegeven).
Kortom, we zoeken ${}^{\cal E}\kern-2pt M_F^{\cal E}$ en
${}^{\cal B}\kern-2pt M_F^{\cal B}$.

Er zijn meestal veel manieren om vragen als deze op te lossen. We zullen
er een paar schetsen. We beginnen met ${}^{\cal E}\kern-2pt M_F^{\cal E}$.
Omdat in deze matrix de kolommen gaan bestaan uit de beelden (ten opzichte van $\cal E$) van de basisvectoren  
$$e_1=\left(\begin{array}{c}1\\0\\\end{array}\right), \quad
e_2=\left(\begin{array}{c}0\\1\\\end{array}\right)$$
gebruiken we de lineariteit van $F$ om deze beelden te vinden:
$$3\cdot F\left(\begin{array}{c}0\\1\\\end{array}\right)=
F\left(\begin{array}{c}0\\3\\\end{array}\right)=
F(\left(\begin{array}{c}1\\2\\\end{array}\right)+
\left(\begin{array}{c}-1\\1\\\end{array}\right))=
\left(\begin{array}{c}4\\-1\\\end{array}\right)+
\left(\begin{array}{c}-1\\-5\\\end{array}\right)=
\left(\begin{array}{c}3\\-6\\\end{array}\right),$$
en daarmee
$$ F\left(\begin{array}{c}1\\0\\\end{array}\right)=
F(\left(\begin{array}{c}0\\1\\\end{array}\right)-
\left(\begin{array}{c}-1\\1\\\end{array}\right))=
\left(\begin{array}{c}1\\-2\\\end{array}\right)-
\left(\begin{array}{c}-1\\-5\\\end{array}\right)=
\left(\begin{array}{c}2\\3\\\end{array}\right).$$
Daarom is
$${}^{\cal E}\kern-2pt M_F^{\cal E}=\left(\begin{array}{cc}
2&1\\3&-2\\\end{array}\right).$$
In het algemeen is het niet altijd zo eenvoudig als hier om de beelden van
de $e_i$ te vinden wanneer beelden van onafhankelijke vectoren
$b_j$ gegeven zijn, maar uiteindelijk is dit niets anders dan
het oplossen van de $n$ stelsels vergelijkingen
$$e_i=\sum_{j=1}^n x_{j} b_j,$$
waar de $x_j$ van $i$ zullen afhangen.
In dit geval hebben we gevonden
$$e_1 = \frac{1}{3}b_1-\frac{2}{3}b_2,
\quad e_2 = \frac{1}{3}b_1+\frac{1}{3}b_2.$$
We bepalen nu ${}^{\cal B}\kern-2pt M_F^{\cal B}$ door te gebruiken
dat
$${}^{\cal B}\kern-2pt M_F^{\cal B}={}^{\cal B}\kern-2pt M_\id^{\cal E}\cdot
{}^{\cal E}\kern-2pt M_F^{\cal E}\cdot {}^{\cal E}\kern-2pt M_\id^{\cal B},$$
waar ${}^{\cal B}\kern-2pt M_\id^{\cal E}$ een vector geschreven op basis
${\cal E}$ herschrijft op basis ${\cal B}$, en 
${}^{\cal E}\kern-2pt M_\id^{\cal B}=\left({}^{\cal B}\kern-2pt M_\id^{\cal E}\right)^{-1}$ de inverse operatie is. 
Omdat de basisvectoren $b_1$ en $b_2$ al zijn gegeven in co\"ordinaten ten
opzichte van $\cal E$, weten we al dat
$${}^{\cal E}\kern-2pt M_\id^{\cal B}=\left(\begin{array}{cc}
1&-1\\2&1\\\end{array}\right),$$
immers, een lineaire combinatie van $b_1$ en $b_2$ is dezelfde lineaire
combinatie van de kolommetjes beschouwd als co\"ordinaten ten opzichte van
$\cal E$. Maar dan is
$${}^{\cal B}\kern-2pt M_\id^{\cal E}=\left(\begin{array}{cc}
1&-1\\2&1\\\end{array}\right)^{-1}=\left(\begin{array}{cc}
\frac{1}{3}&\frac{1}{3}\\-\frac{2}{3}&\frac{1}{3}\\\end{array}\right).$$
Natuurlijk hadden we dit werk eigenlijk al gedaan door de vectoren
$e_1$ en $e_2$ boven uit te drukken in $b_1$ en $b_2$, en het resultaat
(opgevat als kolom-co\"ordinaatvectoren) was ook hetzelfde.
Maar dan is het vinden van ${}^{\cal B}\kern-2pt M_F^{\cal B}$ nog slechts
een kwestie van het vermenigvuldigen van drie matrices:
$${}^{\cal B}\kern-2pt M_F^{\cal B}=
\left(\begin{array}{cc}\frac{1}{3}&\frac{1}{3}\\-\frac{2}{3}&\frac{1}{3}\\\end{array}\right)\cdot 
\left(\begin{array}{cc}2&1\\3&-2\\\end{array}\right)\cdot
\left(\begin{array}{cc}
1&-1\\2&1\\\end{array}\right)=
\left(\begin{array}{cc}1&-2\\-3&-1\\\end{array}\right).$$
Ter controle: we zien hier dus bijvoorbeeld dat 
$$F(b_1)=1\cdot b_1-3\cdot b_2=
\left(\begin{array}{c}1\\2\\\end{array}\right)-3\cdot
\left(\begin{array}{c}-1\\1\\\end{array}\right)=
\left(\begin{array}{c}4\\-1\\\end{array}\right)$$
in co\" ordinaten ten opzichte van $\cal E$, zoals aanvankelijk gegeven.

Een meer rechtstreekse manier om ${}^{\cal B}\kern-2pt M_F^{\cal B}$
te bepalen is analoog aan de methode die we gebruikten om
${}^{\cal E}\kern-2pt M_F^{\cal E}$ te vinden: probeer de beelden
$F(b_1)$ en $F(b_2)$ te schrijven als lineaire combinatie van
de vectoren $b_1$ en $b_2$; dat geeft direct de kolommen voor
${}^{\cal B}\kern-2pt M_F^{\cal B}$. In dit geval is wel weer 
eenvoudig te zien dat
$$F(b_1)=\left(\begin{array}{c}4\\-1\\\end{array}\right)=
\left(\begin{array}{c}1\\2\\\end{array}\right)-3\cdot\left(\begin{array}{c}-1\\1\\\end{array}\right),$$
en in het algemeen kun je dat weer doen door de stelsels lineaire vergelijkingen
$$F(b_i)=\sum_{j=1}^n y_j b_j$$
op te lossen (de $y_j$ zullen weer afhangen van $i$).
\end{vbd}
