Geometrie.

Sei der zugrundegelegte Körper $ \mbox{$K=\mathbb{R}$}$ oder $ \mbox{$K=\mathbb{C}$}$ . Sei $ \mbox{$n\geq 1$}$ .

Orthogonalität.

Seien $ \mbox{$x=\begin{pmatrix}\xi_1\\  \vdots\\  \xi_n\end{pmatrix}$}$ und $ \mbox{$y=\begin{pmatrix}\eta_1\\  \vdots\\  \eta_n\end{pmatrix}$}$ Vektoren im $ \mbox{$K^n$}$ .

Sei

$ \mbox{$\displaystyle
\bar{x} \;:=\; \begin{pmatrix}\bar{\xi}_1\\  \vdots\\  \bar{\xi}_n\end{pmatrix}\;.
$}$

Ist $ \mbox{$K=\mathbb{R}$}$ , so ist $ \mbox{$\bar{x}=x$}$ .

Das Skalarprodukt von $ \mbox{$x$}$ und $ \mbox{$y$}$ ist gegeben durch

$ \mbox{$\displaystyle
\bar{x}^\text{t} y \;=\; \bar{\xi}_1 \eta_1 + \bar{\xi}_2 \eta_2 +\cdots+ \bar{\xi}_n \eta_n\;.
$}$

Die Länge (oder auch Norm) von $ \mbox{$x$}$ ist gegeben durch

$ \mbox{$\displaystyle
\Vert x\Vert \;=\; \sqrt{\bar{x}^\text{t} x}\;.
$}$

Der Vektor $ \mbox{$x$}$ heißt normiert, falls $ \mbox{$\Vert x\Vert=1$}$ .

Ist $ \mbox{$x\ne 0$}$ , so schreiben wir

$ \mbox{$\displaystyle
x^0 \;:=\; \frac{1}{\Vert x\Vert}\,x
$}$
für den normierten Vektor von $ \mbox{$x$}$ .

Die Cauchy-Schwarzsche Ungleichung schreibt sich nun

$ \mbox{$\displaystyle
\vert\bar{x}^\text{t} y\vert \;\leq\; \Vert x\Vert\cdot\Vert y\Vert\;.
$}$

Sind $ \mbox{$x\ne 0$}$ und $ \mbox{$y\ne 0$}$ , und ist $ \mbox{$\varphi$}$ der von $ \mbox{$x$}$ und $ \mbox{$y$}$ eingeschlossene Winkel, so gilt

$ \mbox{$\displaystyle
\cos\varphi \;=\; \frac{\bar{x}^\text{t} y}{\Vert x\Vert\cdot\Vert y\Vert}\;.
$}$

Die Vektoren $ \mbox{$x$}$ und $ \mbox{$y$}$ heißen orthogonal, falls $ \mbox{$\bar{x}^\text{t} y=0$}$ . Im Falle $ \mbox{$x\ne 0$}$ und $ \mbox{$y\ne 0$}$ ist dies gleichbedeutend damit, daß der von $ \mbox{$x$}$ und $ \mbox{$y$}$ eingeschlossene Winkel gleich $ \mbox{$\pm\pi/2$}$ ist.

Ein Tupel $ \mbox{$(x_1,\ldots,x_m)$}$ von Vektoren in $ \mbox{$K^n$}$ heißt orthonormal, falls $ \mbox{$x_j$}$ und $ \mbox{$x_k$}$ orthogonal sind für alle $ \mbox{$j,k\in\{1,\ldots,m\}$}$ mit $ \mbox{$j\ne k$}$ , und $ \mbox{$x_j$}$ normiert ist für alle $ \mbox{$j\in\{1,\ldots,m\}$}$ .

Ein orthonormales Tupel ist insbesondere linear unabhängig. Es ist dann eine Orthonormalbasis von $ \mbox{$U := \langle x_1,\ldots,x_m\rangle\subseteq K^n$}$ .

Die orthogonale Projektion von $ \mbox{$K^n$}$ auf $ \mbox{$U$}$ ist gegeben durch

$ \mbox{$\displaystyle
\begin{array}{rcl}
K^n & \overset{\pi_U}\longrightarrow ...
...
y & \mapsto & \sum_{j = 1}^m (\bar{x}^\text{t}_j y)x_j\; . \\
\end{array}$}$

Der Abstand eines Punktes $ \mbox{$y\in K^n$}$ zum Unterraum $ \mbox{$U$}$ ist gegeben durch $ \mbox{$\Vert y - \pi_U(y)\Vert$}$ .

Der von dem Vektor $ \mbox{$y$}$ und dem Unterraum $ \mbox{$U$}$ eingeschlossene Winkel ist gleich dem von den Vektoren $ \mbox{$y$}$ und $ \mbox{$\pi_U(y)$}$ eingeschlossenen Winkel, falls $ \mbox{$\pi_U(y)\neq 0$}$ . Falls $ \mbox{$\pi_U(y) = 0$}$ , so ist dieser Winkel gleich $ \mbox{$\pm\pi/2$}$ - es steht $ \mbox{$y$}$ orthogonal zu $ \mbox{$U$}$ genau dann, wenn seine orthogonale Projektion auf $ \mbox{$U$}$ verschwindet.

Gram-Schmidtsches Orthonormalisierungsverfahren.

Seien $ \mbox{$x_1,\ldots,x_m\in K^n$}$ gegeben.

Das folgende Verfahren liefert eine Orthonormalbasis von $ \mbox{$\langle x_1,\ldots,x_m\rangle$}$ .

Setze $ \mbox{$x_1' := x_1^0$}$ .

Sind $ \mbox{$x_1',\ldots,x_k'$}$ bereits konstruiert für ein $ \mbox{$k<m$}$ , so setze man

$ \mbox{$\displaystyle
x_{k+1}' \;:=\; \left(x_{k+1}-\sum_{j=1}^k (\bar{x}_j^\text{t} x_{k+1})x_j\right)^{\!\!0}\;.
$}$

Die Normierung werde nur dann durchgeführt, wenn der zu normierende Vektor $ \mbox{$\ne 0$}$ ist. Ansonsten überspringe man den Vektor $ \mbox{$x_{k+1}$}$ und fahre mit $ \mbox{$x_{k+2}$}$ an seiner statt fort. Denn dann hat man $ \mbox{$x_{k+1}\in\langle x_1,\dots,x_k\rangle$}$ nachgewiesen, und $ \mbox{$x_{k+1}$}$ war als Erzeuger von $ \mbox{$U$}$ redundant.

Als Resultat ist $ \mbox{$(x_1',\ldots,x_l')$}$ eine Orthonormalbasis von $ \mbox{$\langle x_1,\ldots,x_m\rangle$}$ . Es gilt $ \mbox{$l=m$}$ genau dann, wenn $ \mbox{$(x_1,\ldots,x_m)$}$ linear unabhängig ist.

Kreuzprodukt.

Seien $ \mbox{$x=\begin{pmatrix}\xi_1\\  \xi_2\\  \xi_3\end{pmatrix}$}$ und $ \mbox{$y=\begin{pmatrix}\eta_1\\  \eta_2\\  \eta_3\end{pmatrix}$}$ Vektoren im $ \mbox{$\mathbb{R}^3$}$ .

Das Kreuzprodukt von $ \mbox{$x$}$ und $ \mbox{$y$}$ ist definiert als

$ \mbox{$\displaystyle
x\times y \;=\; \begin{pmatrix}\xi_1\\  \xi_2\\  \xi_3\e...
...\eta_2\\  \xi_3\eta_1-\xi_1\eta_3\\  \xi_1\eta_2-\xi_2\eta_1\end{pmatrix}\;.
$}$

Der Vektor $ \mbox{$x\times y$}$ ist orthogonal zu $ \mbox{$x$}$ und zu $ \mbox{$y$}$ . Seine Länge ist gleich dem Flächeninhalt des von $ \mbox{$x$}$ und $ \mbox{$y$}$ aufgespannten Parallelogramms. Insbesondere ist $ \mbox{$x\times y=0$}$ genau dann, wenn $ \mbox{$(x,y)$}$ linear abhängig ist.

Die Richtung von $ \mbox{$x\times y$}$ kann man sich wie folgt veranschaulichen. Man wähle ein Koordinatensystem, in dem die $ \mbox{$\xi_1$}$ -Achse in Richtung des Daumens der rechten Hand, die $ \mbox{$\xi_2$}$ -Achse in Richtung des Zeigefingers und die $ \mbox{$\xi_3$}$ -Achse in Richtung des Mittelfingers zeigt. Legt man nun den Daumen der rechten Hand in Richtung des Vektors $ \mbox{$x$}$ und den Zeigefinger in Richtung des Vektors $ \mbox{$y$}$ , so zeigt der Mittelfinger in Richtung des Kreuzproduktes $ \mbox{$x\times y$}$ .

Es gelten folgende Regeln. Seien $ \mbox{$x,\, y,\, z\,\in\,\mathbb{R}^3$}$ , und seien $ \mbox{$\lambda,\,\lambda',\,\mu,\,\mu'\,\in\,\mathbb{R}$}$ .

Hessesche Normalenform.

Sei $ \mbox{$U\subseteq K^n$}$ ein Unterraum der Dimension $ \mbox{$m$}$ , mit $ \mbox{$1\leq m\leq n-1$}$ , und sei $ \mbox{$x_0\in K^n$}$ . Wir wollen

$ \mbox{$\displaystyle
x_0 + U \;:=\; \{ x_0 + u\; \vert\; u\in U\} \;=\; \{x\in K^n\; \vert\; Ax = b\}
$}$
mit einer geeigneten Matrix $ \mbox{$A\in K^{(n - m)\times n}$}$ und einem geeigneten Vektor $ \mbox{$b\in K^{n-m}$}$ schreiben, und zwar derart, daß die Spalten von $ \mbox{$A^\text{t}$}$ ein orthonormales Tupel bilden.

Sei hierzu $ \mbox{$(x_1,\dots,x_m)$}$ eine Basis von $ \mbox{$U$}$ , welche wir zu einer Basis $ \mbox{$(x_1,\dots,x_m,x_{m+1},\dots,x_n)$}$ von $ \mbox{$K^n$}$ ergänzen. Gram-Schmidt auf diese Basis angewandt liefert eine Orthonormalbasis $ \mbox{$(x'_1,\dots,x'_m,x'_{m+1},\dots,x'_n)$}$ derart, daß $ \mbox{$(x'_1,\dots,x'_m)$}$ eine Basis von $ \mbox{$U$}$ darstellt. Sei nun $ \mbox{$A\in K^{(n - m)\times n}$}$ die Matrix mit Zeilentupel $ \mbox{$(\bar{x}'^{\text{t}}_{m+1},\dots,\bar{x}'^{\text{t}}_n)$}$ . Mit $ \mbox{$b := Ax_0$}$ wird

$ \mbox{$\displaystyle
x_0 + U \;=\; \{x\in K^n\; :\; Ax - b = 0\} \; .
$}$
Die Darstellung von $ \mbox{$x_0 + U$}$ in dieser Form heißt Hessesche Normalenform.

Der Abstand $ \mbox{$\Vert(y - x_0) - \pi_U(y - x_0)\Vert$}$ eines Punktes $ \mbox{$y\in K^n$}$ zu $ \mbox{$x_0 + U$}$ ist dann gegeben durch $ \mbox{$\Vert Ay - b\Vert$}$ .