Differenzierbarkeit.

Offene Mengen.

Es sei $ \mbox{$n\geq 1$}$ und $ \mbox{$M \subseteq \mathbb{R}^n$}$ gegeben. Ein Punkt $ \mbox{$x \in M$}$ heißt innerer Punkt von $ \mbox{$M$}$ , falls es ein $ \mbox{$\varepsilon > 0$}$ gibt, so daß $ \mbox{$B_\varepsilon (x) \subseteq M$}$ .

Die Menge $ \mbox{$M$}$ heißt offen, wenn jeder Punkt $ \mbox{$x \in M$}$ innerer Punkt von $ \mbox{$M$}$ ist.

Die Menge $ \mbox{$M$}$ ist genau dann offen, wenn ihr Komplement $ \mbox{$\mathbb{R}^m \setminus M$}$ abgeschlossen ist.

Partielle Ableitung.

Sei $ \mbox{$M \subseteq \mathbb{R}^n$}$ . Gegeben seien $ \mbox{$f: M \to \mathbb{R}$}$ und ein Punkt $ \mbox{$x=(\xi_1, \ldots, \xi_n)^\text{t}\in M$}$ . Die Funktion $ \mbox{$f$}$ heißt partiell differenzierbar nach $ \mbox{$x_\nu$}$ in $ \mbox{$x$}$ , falls

$ \mbox{$\displaystyle
\lim\limits_{t \to \xi_\nu} \frac{f(\xi_1,\ldots,\xi_{\...
...{t-\xi_\nu}
\;=:\; f_{x_\nu}(x) \;=:\; \frac{\partial f}{\partial x_\nu}(x)
$}$
existiert. Diesenfalls heißt der Grenzwert $ \mbox{$f_{x_\nu}(x)$}$ die partielle Ableitung von $ \mbox{$f$}$ nach $ \mbox{$x_\nu$}$ in $ \mbox{$x$}$ . Mit anderen Worten, ist $ \mbox{$D = \{ t \in \mathbb{R} \vert (\xi_1, \ldots, \xi_{\nu-1},t,\xi_{\nu+1},\ldots,\xi_n) \in M \}$}$ , so ist diesenfalls die Funktion
$ \mbox{$\displaystyle
D \to \mathbb{R}, \; t \mapsto f(\xi_1,\ldots,\xi_{\nu-1},t,\xi_{\nu+1},\ldots,\xi_n)
$}$
differenzierbar in $ \mbox{$t=\xi_\nu$}$ im Sinne der eindimensionalen Analysis, und ihre Ableitung ist dann gleich $ \mbox{$f_{x_\nu}(x)$}$ .

Gegeben seien nun $ \mbox{$f: M \to \mathbb{R}^m$}$ mit den Komponenten $ \mbox{$f=(f_1,\ldots,f_m)^\text{t}$}$ und ein innerer Punkt $ \mbox{$x \in M$}$ . Die Funktion $ \mbox{$f$}$ heißt partiell differenzierbar nach $ \mbox{$x_\nu$}$ in $ \mbox{$x$}$ , falls die Funktionen $ \mbox{$f_1, \ldots, f_m$}$ jeweils partiell differenzierbar nach $ \mbox{$x_\nu$}$ in $ \mbox{$x$}$ sind. Diesenfalls heißt der Vektor

$ \mbox{$\displaystyle
\frac{\partial f}{\partial x_\nu}(x) \;:=\; f_{x_\nu}(x)...
...\nu}(x)\\
\vdots\\
\frac{\partial f_m}{\partial x_\nu}(x)
\end{pmatrix}$}$
die partielle Ableitung von $ \mbox{$f$}$ nach $ \mbox{$x_\nu$}$ in $ \mbox{$x$}$ .

Die Funktion $ \mbox{$f$}$ heißt partiell differenzierbar in $ \mbox{$x$}$ , wenn $ \mbox{$f$}$ partiell differenzierbar nach $ \mbox{$x_\nu$}$ in $ \mbox{$x$}$ ist für alle $ \mbox{$\nu\in\{1,\dots,n\}$}$ . Im Falle $ \mbox{$m = 1$}$ heißt dann der Vektor

$ \mbox{$\displaystyle
\nabla f(x) \;:=\;
\begin{pmatrix}f_{x_1}(x)\\
\vdots\\
f_{x_n}(x)
\end{pmatrix}$}$
der Gradient von $ \mbox{$f$}$ in $ \mbox{$x$}$ .

Die Funktion $ \mbox{$f: M \to \mathbb{R}^m$}$ heißt partiell differenzierbar, wenn $ \mbox{$f$}$ partiell differenzierbar in allen Punkten $ \mbox{$x \in M$}$ ist.

Die Funktion $ \mbox{$f$}$ heißt stetig partiell differenzierbar, wenn $ \mbox{$f$}$ partiell differenzierbar ist und die partielle Ableitung $ \mbox{$\frac{\partial f_\mu}{\partial x_\nu}: M \to \mathbb{R}$}$ stetig ist für alle $ \mbox{$\mu\in\{ 1,\ldots, m\}$}$ und alle $ \mbox{$\nu\in\{1, \ldots, n\}$}$ .

Seien nun $ \mbox{$\nu_1,\ldots,\nu_k\in\{1,\ldots,n\}$}$ gegeben. Dann definiert man rekursiv die $ \mbox{$k$}$ -fache partielle Ableitung von $ \mbox{$f$}$ nach $ \mbox{$x_{\nu_1},\ldots,x_{\nu_k}$}$ in $ \mbox{$x$}$ durch

$ \mbox{$\displaystyle
f_{x_{\nu_1}\ldots x_{\nu_k}}(x) := \frac{\partial^k f}{...
...rtial x_{\nu_k}}\right)
(x),& \text{falls {$\mbox{$k\geq 2$}$},}
\end{cases}$}$
falls die rechte Seite existiert.

Sei $ \mbox{$k\ge 1$}$ . Die Funktion $ \mbox{$f: M \to \mathbb{R}^m$}$ heißt $ \mbox{$k$}$ -fach stetig differenzierbar, in Zeichen $ \mbox{$f \in C^k(M)$}$ , falls alle $ \mbox{$k$}$ -fachen partiellen Ableitungen von $ \mbox{$f$}$ in allen Punkten $ \mbox{$x \in M$}$ existieren und stetig sind.

Richtungsableitung.

Sei $ \mbox{$M \subseteq \mathbb{R}^n$}$ , sei $ \mbox{$f: M \to \mathbb{R}$}$ eine Funktion, und sei $ \mbox{$x \in M$}$ ein innerer Punkt. Sei $ \mbox{$v$}$ eine Richtung im $ \mbox{$\mathbb{R}^n$}$ , d.h. sei $ \mbox{$v\in\mathbb{R}^n$}$ und $ \mbox{$\Vert v\Vert=1$}$ .

Die Funktion $ \mbox{$f$}$ heißt differenzierbar in Richtung $ \mbox{$v$}$ in $ \mbox{$x$}$ , falls

$ \mbox{$\displaystyle
f_v(x) \;:=\; \frac{\partial f}{\partial v}(x):=\lim_{h\to 0}\frac{f(x+hv)-f(x)}{h}
$}$
existiert. Der Wert $ \mbox{$f_v(x)$}$ heißt dann die Richtungsableitung von $ \mbox{$f$}$ in Richtung $ \mbox{$v$}$ in $ \mbox{$x$}$ .

Ist speziell $ \mbox{$e_\nu$}$ der $ \mbox{$\nu$}$ -te Einheitsvektor in $ \mbox{$\mathbb{R}^n$}$ , so gilt $ \mbox{$f_{e_\nu}(x) = f_{x_\nu}(x)$}$ , d.h. die Richtungsableitung in Richtung des $ \mbox{$\nu$}$ -ten Einheitsvektors ist gleich der partiellen Ableitung nach $ \mbox{$x_\nu$}$ .

(Totale) Ableitung.

Sei $ \mbox{$M \subseteq \mathbb{R}^n$}$ , sei $ \mbox{$f: M \to \mathbb{R}^m$}$ eine Funktion, und sei $ \mbox{$x_0\in M$}$ ein innerer Punkt.

Die Funktion $ \mbox{$f$}$ heißt (total) differenzierbar in $ \mbox{$x_0$}$ , falls es eine Matrix $ \mbox{$A\in\mathbb{R}^{m\times n}$}$ und eine Funktion $ \mbox{$r:M\to\mathbb{R}^m$}$ gibt, so daß

$ \mbox{$\displaystyle
f(x) \; =\; f(x_0) + A(x-x_0) + r(x)\Vert x-x_0\Vert
$}$
für alle $ \mbox{$x \in M$}$ , und
$ \mbox{$\displaystyle
\lim_{x\to x_0} r(x)\; =\;0\;.
$}$

Falls $ \mbox{$M \subseteq \mathbb{R}^n$}$ offen ist, so heißt die Funktion $ \mbox{$f$}$ (total) differenzierbar, falls sie in jedem Punkt $ \mbox{$x \in M$}$ differenzierbar ist. (Man setzt ,,total`` manchmal zur Betonung des Unterschiedes zur partiellen Differenzierbarkeit hinzu.)

Ist $ \mbox{$f$}$ differenzierbar in $ \mbox{$x_0$}$ , so ist die obengenannte Matrix $ \mbox{$A$}$ eindeutig bestimmt und heißt die (totale) Ableitung von $ \mbox{$f$}$ in $ \mbox{$x_0$}$ , manchmal auch Jacobimatrix von $ \mbox{$f$}$ in $ \mbox{$x_0$}$ , und wir schreiben

$ \mbox{$\displaystyle
f'(x_0) \; := \; A\; .
$}$
Es gilt dann
$ \mbox{$\displaystyle
f'(x_0) \;=\; \begin{pmatrix}\frac{\partial f_1}{\partia...
..._1}(x_0) & \cdots & \frac{\partial f_m}{\partial x_n}(x_0)
\end{pmatrix}\;.
$}$

Zum Beispiel ist im Falle $ \mbox{$m = 1$}$ die Jacobimatrix mit dem Gradienten über die Gleichung $ \mbox{$f'(x_0) = \nabla f(x_0)^\text{t}$}$ verbunden. (Hier hat man also zwei Begriffe für bis auf Transposition dieselbe Matrix. Dafür gibt es einen Grund, wie wir weiter unten bei den Vektorfeldern sehen werden.)

Ist $ \mbox{$f: M \to \mathbb{R}$}$ differenzierbar in $ \mbox{$x_0\in M$}$ , so existieren auch alle Richtungsableitungen von $ \mbox{$f$}$ in $ \mbox{$x_0$}$ . Für jede Richtung $ \mbox{$v$}$ in $ \mbox{$\mathbb{R}^n$}$ gilt dann

$ \mbox{$\displaystyle
f_v(x_0) \;=\; f'(x_0) v\;.
$}$

Ist $ \mbox{$f$}$ differenzierbar in $ \mbox{$x$}$ , so ist $ \mbox{$f$}$ insbesondere partiell differenzierbar in $ \mbox{$x$}$ .

Ist $ \mbox{$M \subseteq \mathbb{R}^n$}$ offen und $ \mbox{$f: M \to \mathbb{R}^m$}$ stetig partiell differenzierbar, so ist $ \mbox{$f$}$ differenzierbar.

Ist $ \mbox{$M \subseteq \mathbb{R}^n$}$ offen, so gelten folgende Implikationen für eine Funktion $ \mbox{$f: M \to \mathbb{R}^m$}$ .

$ \mbox{$\displaystyle
\begin{array}{ccccc}
\text{stetig partiell differenzierb...
...artiell differenzierbar}\\
&&\Downarrow&&\\
&&\text{stetig}&&
\end{array}$}$

Regeln für (totale) Ableitungen.

Sei $ \mbox{$M \subseteq \mathbb{R}^n$}$ , und sei $ \mbox{$x_0\in M$}$ ein innerer Punkt.

Es seien $ \mbox{$f,\,g\,:\,M \to \mathbb{R}^m$}$ und $ \mbox{$\gamma: M \to \mathbb{R}$}$ differenzierbar im inneren Punkt $ \mbox{$x \in M$}$ , und es seien $ \mbox{$\alpha,\, \beta \,\in\, \mathbb{R}$}$ . Dann sind auch $ \mbox{$\alpha f + \beta g$}$ , $ \mbox{$f^\text{t} g$}$ , $ \mbox{$\gamma f$}$ in $ \mbox{$x$}$ differenzierbar, und es gelten die Differentiationsregeln

Sei ferner $ \mbox{$L\subseteq\mathbb{R}^l$}$ , sei $ \mbox{$g:L \to M$}$ in einem inneren Punkt $ \mbox{$y \in L$}$ differenzierbar, und sei $ \mbox{$f:M\longrightarrow\mathbb{R}^m$}$ differenzierbar im inneren Punkt $ \mbox{$g(y)\in M$}$ . Wir haben also

$ \mbox{$\displaystyle
\begin{array}{rcccl}
L &\overset{g} {\longrightarrow}& M...
...}^m\vspace*{2mm}\\
y &\mapsto & g(y) &\mapsto& (f\circ g)(y)\;.
\end{array}$}$
Dann ist $ \mbox{$f \circ g$}$ in $ \mbox{$y$}$ differenzierbar, und es gilt die Kettenregel
$ \mbox{$\displaystyle
(f \circ g)'(y) \; =\; f'(g(y)) g'(y) \; .
$}$

Die Hessematrix.

Sei $ \mbox{$M \subseteq \mathbb{R}^n$}$ offen, und sei $ \mbox{$f: M \to \mathbb{R}$}$ eine zweifach stetig differenzierbare Funktion.

Die Hessematrix von $ \mbox{$f$}$ in $ \mbox{$x \in M$}$ ist durch

$ \mbox{$\displaystyle
\text{H}_f(x) \;:=\; \begin{pmatrix}f_{x_1 x_1}(x) & \cd...
...x_1 x_n}(x) & \cdots & f_{x_n x_n}(x)
\end{pmatrix}\;=\; (\nabla f)'(x) \;.
$}$
definiert.

Der Satz von Schwarz besagt, daß unter diesen Voraussetzungen $ \mbox{$f_{x_i x_j}=f_{x_j x_i}$}$ für alle $ \mbox{$i,j \in \{1, \ldots, n\}$}$ gilt, d.h. daß die Hessematrix $ \mbox{$\text{H}_f(x)$}$ symmetrisch ist für alle $ \mbox{$x \in M$}$ .