Lineare Abbildungen und Darstellungsmatrizen.

Seien $ \mbox{$V$}$ und $ \mbox{$W$}$ Vektorräume über dem Körper $ \mbox{$K$}$ .

Begriff.

Eine Abbildung $ \mbox{$f:V\longrightarrow W$}$ heißt linear, falls

$ \mbox{$\displaystyle
f(\lambda x + \mu y) \;=\; \lambda f(x) + \mu f(y)
$}$
für alle $ \mbox{$x,y\in V$}$ und alle $ \mbox{$\lambda,\mu\in K$}$ .

Ist $ \mbox{$V=K^n$}$ und $ \mbox{$W=K^m$}$ , und ist $ \mbox{$A\in K^{m\times n}$}$ eine Matrix, so ist zum Beispiel die Abbildung

$ \mbox{$\displaystyle
K^n\longrightarrow K^m,\; x\mapsto Ax
$}$
linear.

Eine lineare Abbildung $ \mbox{$V\longrightarrow V$}$ heißt auch Endomorphismus von $ \mbox{$V$}$ .

Die Verkettung linearer Abbildungen ist wieder eine lineare Abbildung.

Ist $ \mbox{$f:V\longrightarrow W$}$ eine lineare Abbildung, so ist

$ \mbox{$\displaystyle
\text{Kern }f \; :=\; \{x\in V\vert\; f(x)=0\} \;=\; f^{-1}(\{0\})
$}$
ein Unterraum von $ \mbox{$V$}$ , genannt der Kern von $ \mbox{$f$}$ . Ferner ist
$ \mbox{$\displaystyle
\text{Bild} f \; :=\; \{f(x)\; \vert\; x\in V\} \;=\; f(V)
$}$
ein Unterraum von $ \mbox{$W$}$ , genannt das Bild von $ \mbox{$f$}$ .

Die lineare Abbildung $ \mbox{$f$}$ ist injektiv genau dann, wenn $ \mbox{$\text{Kern }f=\{0\}$}$ .

Ist die lineare Abbildung $ \mbox{$f:V\longrightarrow W$}$ bijektiv, so ist auch die Umkehrabbildung $ \mbox{$f^{-1}:W\longrightarrow V$}$ wieder eine lineare Abbildung.

Eine bijektive lineare Abbildung $ \mbox{$f:V\to W$}$ heißt auch Isomorphismus. Ein isomorpher Endomorphismus heißt auch Automorphismus.

So etwa ist die identische Abbildung $ \mbox{$V\longrightarrow V,\ x\mapsto x$}$ ein Isomorphismus.

Kriterien.

Sei $ \mbox{$f:V\to W$}$ eine lineare Abbildung. Sei $ \mbox{$(x_1,\dots,x_n)$}$ eine Basis von $ \mbox{$V$}$ .

Die lineare Abbildung $ \mbox{$f$}$ ist injektiv genau dann, wenn $ \mbox{$(f(x_1),\dots,f(x_n))$}$ linear unabhängig in $ \mbox{$W$}$ ist.

Die lineare Abbildung $ \mbox{$f$}$ ist surjektiv genau dann, wenn $ \mbox{$(f(x_1),\dots,f(x_n))$}$ erzeugend in $ \mbox{$W$}$ ist.

Die lineare Abbildung $ \mbox{$f$}$ ist bijektiv genau dann, wenn $ \mbox{$(f(x_1),\dots,f(x_n))$}$ eine Basis von $ \mbox{$W$}$ ist.

Dimensionsformel.

Sei $ \mbox{$f:V\longrightarrow W$}$ eine lineare Abbildung. Dann gilt die Dimensionsformel

$ \mbox{$\displaystyle
\dim V \;=\; \dim\text{Kern }f + \dim\text{Bild} f \;.
$}$

Matrixmultiplikation.

Seien $ \mbox{$A=(a_{i,j})_{i,j}\in K^{l\times m}$}$ und $ \mbox{$B=(b_{j,k})_{j,k}\in K^{m\times n}$}$ Matrizen. Das Matrixprodukt von $ \mbox{$A$}$ und $ \mbox{$B$}$ ist definiert als

$ \mbox{$\displaystyle
A\cdot B \;:=\; \left(\sum_{j=1}^m a_{i,j}b_{j,k}\right)_{i\in\{1,\dots,l\},k\in\{1,\dots,n\}}
\;\in\; K^{l\times n}\;.
$}$
Der Eintrag an der Position $ \mbox{$(i,j)$}$ von $ \mbox{$A\cdot B$}$ berechnet sich also aus der $ \mbox{$i$}$ -ten Zeile von $ \mbox{$A$}$ und der $ \mbox{$j$}$ -ten Spalte von $ \mbox{$B$}$ .

Ist $ \mbox{$A\in K^{m\times m}$}$ , so setzen wir $ \mbox{$A^0:=\text{E}_m$}$ , $ \mbox{$A^1:=A$}$ , $ \mbox{$A^2:=A\cdot A$}$ , ..., $ \mbox{$A^k:=A\cdot A^{k-1}$}$ .

Vorsicht! Es gilt i.a. $ \mbox{$A\cdot B \ne B\cdot A$}$ für $ \mbox{$A, B\in K^{m\times m}$}$ .

Darstellungsmatrix.

Sei $ \mbox{$f:V\longrightarrow W$}$ eine lineare Abbildung. Sei $ \mbox{$\underline{x}=(x_1,\dots,x_n)$}$ eine Basis von $ \mbox{$V$}$ , und sei $ \mbox{$\underline{y}=(y_1,\dots,y_m)$}$ eine Basis von $ \mbox{$W$}$ .

Dann gibt es eindeutig bestimmte Koeffizienten $ \mbox{$(a_{i,j})_{i\in\{1,\dots,m\}, j\in\{1,\dots,n\}}$}$ in $ \mbox{$K$}$ so, daß

$ \mbox{$\displaystyle
f(x_j) \;=\; \sum_{i=1}^n a_{i,j} y_i
$}$
für alle $ \mbox{$j\in\{1,\dots,n\}$}$ . Die zugehörige Matrix
$ \mbox{$\displaystyle
\text{M}(f)_{\underline{y},\underline{x}} \;:=\; (a_{i,j})_{i\in\{1,\dots,m\}, j\in\{1,\dots,n\}} \;\in\; K^{m\times n}
$}$
heißt die Darstellungsmatrix von $ \mbox{$f$}$ bezüglich der Basen $ \mbox{$\underline{x}$}$ und $ \mbox{$\underline{y}$}$ .

Kurz, die Spalten der Darstellungsmatrix sind die Koeffizienten der Bilder der Basisvektoren von $ \mbox{$V$}$ bezüglich der Basis von $ \mbox{$W$}$ .

Ist $ \mbox{$Y$}$ ein weiterer Vektorraum über $ \mbox{$K$}$ mit Basis $ \mbox{$\underline{z}=(z_1,\dots,z_l)$}$ , und ist $ \mbox{$g:W\longrightarrow Y$}$ eine lineare Abbildung, so ist

$ \mbox{$\displaystyle
\text{M}(g\circ f)_{\underline{z},\underline{x}} \;=\; \...
...derline{z},\underline{y}} \cdot \text{M}(f)_{\underline{y},\underline{x}}\;,
$}$
d.h. die Darstellungsmatrix der Verkettung ist gleich dem Matrixprodukt der Darstellungsmatrizen.

Ist $ \mbox{$V=K^n$}$ , $ \mbox{$W=K^m$}$ , sind $ \mbox{$\underline{e}^{(n)}$}$ bzw. $ \mbox{$\underline{e}^{(m)}$}$ die Standardbasen des $ \mbox{$K^n$}$ bzw. $ \mbox{$K^m$}$ , und ist $ \mbox{$f:K^n\longrightarrow K^m$}$ , $ \mbox{$x\mapsto Ax$}$ , wobei $ \mbox{$A\in K^{m\times n}$}$ , so ist

$ \mbox{$\displaystyle
\text{M}(f)_{\underline{e}^{(m)},\underline{e}^{(n)}} \;=\; A \;,
$}$
d.h. die Multiplikation mit $ \mbox{$A$}$ hat die Darstellungsmatrix $ \mbox{$A$}$ bezüglich der Standardbasen. Wir schreiben diesenfalls auch
$ \mbox{$\displaystyle
\begin{array}{rclcl}
\text{Kern }A & := & \text{Kern }f ...
...d} f &=& \left\{ Ax \in K^m \;\vert\; x \in K^n \right\}\; . \\
\end{array}$}$

Rang einer Matrix.

Sei $ \mbox{$A=(a_{i,j})_{i,j}\in K^{m\times n}$}$ eine Matrix, und seien $ \mbox{$a_{\ast,1},\dots,a_{\ast,n}\in K^m$}$ die Spaltenvektoren von $ \mbox{$A$}$ . Dann ist der Rang von $ \mbox{$A$}$ definiert durch

$ \mbox{$\displaystyle
\text{Rang} A \;:=\; \dim\langle a_{\ast,1},\ldots,a_{\ast,n}\rangle \;.
$}$

Es ist

$ \mbox{$\displaystyle
\text{Rang} A \;=\; \text{Rang} A^\text{t} \;,
$}$
d.h.
$ \mbox{$\displaystyle
\text{Rang} A \; =\; \dim\langle a_{\ast,1},\ldots,a_{\a...
...; =\; \dim\langle a_{1,\ast}^\text{t},\ldots,a_{m,\ast}^\text{t}\rangle \; .
$}$

Zur Berechnung des Rangs bringe man die Matrix $ \mbox{$A$}$ in Zeilenstufenform. Der Rang ist dann gleich der Anzahl der Nichtnullzeilen in der Zeilenstufenform.

Seien $ \mbox{$A\in K^{m\times n}$}$ und $ \mbox{$B\in K^{n\times r}$}$ Matrizen. Dann gilt

$ \mbox{$\displaystyle
\text{Rang}(A\cdot B) \;\leq\; \min\{\text{Rang} A,\text{Rang} B\}\;.
$}$

Ist $ \mbox{$f:V\longrightarrow W$}$ eine lineare Abbildung, und sind $ \mbox{$\underline{x}$}$ bzw. $ \mbox{$\underline{y}$}$ Basen von $ \mbox{$V$}$ bzw. $ \mbox{$W$}$ , so gilt

$ \mbox{$\displaystyle
\dim\text{Bild} f \;=\; \text{Rang } \text{M}(f)_{\underline{y},\underline{x}}\;.
$}$

Invertierbarkeit.

Sei $ \mbox{$A\in K^{n\times n}$}$ eine quadratische Matrix, d.h. ihre Spaltenzahl ist gleich ihrer Zeilenzahl.

$ \mbox{$A$}$ heißt invertierbar oder regulär, falls es eine Matrix $ \mbox{$B\in K^{n\times n}$}$ gibt so, daß

$ \mbox{$\displaystyle
A\cdot B \;=\; B\cdot A \;=\; \text{E}_n:=\left(\begin{a...
...\vdots & \ddots & \ddots & \ 0\\
0 & \cdots & 0 & 1
\end{array}\right)\;.
$}$
In diesem Falle ist die Matrix $ \mbox{$B$}$ eindeutig bestimmt. Sie wird mit $ \mbox{$A^{-1}$}$ bezeichnet und heißt die Inverse von A.

Die Matrix $ \mbox{$A$}$ heißt singulär, falls sie nicht regulär ist.

Für eine quadratische Matrix $ \mbox{$A\in K^{n\times n}$}$ sind folgende Aussagen äquivalent.

Seien $ \mbox{$V$}$ und $ \mbox{$W$}$ Vektorräume derselben Dimension $ \mbox{$n$}$ , seien $ \mbox{$\underline{x}$}$ bzw. $ \mbox{$\underline{y}$}$ Basen von $ \mbox{$V$}$ bzw. $ \mbox{$W$}$ , und sei $ \mbox{$f:V\longrightarrow W$}$ eine lineare Abbildung. Dann sind folgende Aussagen äquivalent.

In diesem Falle ist
$ \mbox{$\displaystyle
\text{M}(f^{-1})_{\underline{x},\underline{y}} \;=\; \left(\text{M}(f)_{\underline{y},\underline{x}}\right)^{-1} \;.
$}$

Berechnung der Inversen.

Sei $ \mbox{$A\in K^{n\times n}$}$ eine quadratische Matrix.

Um $ \mbox{$A$}$ auf Invertierbarkeit zu überprüfen und gegebenenfalls die Inverse von $ \mbox{$A$}$ zu berechnen, wende man den Gaußschen Algorithmus auf die folgende Matrix an.

$ \mbox{$\displaystyle
(A\vert\text{E}_n) \leadsto (\text{E}_n\vert A^{-1}) \;.
$}$

Hierbei kann $ \mbox{$A$}$ in die Einheitsmatrix überführt werden genau dann, wenn $ \mbox{$A$}$ invertierbar ist. Diesenfalls entsteht in der rechten Hälfte aus $ \mbox{$\text{E}_n$}$ die Inverse $ \mbox{$A^{-1}$}$ von $ \mbox{$A$}$ .