ZHAWNotes/Notes/Semester 3/HM1 - Höhere Mathematik/Zusammenfassung.md

1645 lines
44 KiB
Markdown

# Höhere Mathematik
## Inhalt
- [Höhere Mathematik](#höhere-mathematik)
- [Inhalt](#inhalt)
- [Einführung](#einführung)
- [Einsatzgebiet](#einsatzgebiet)
- [Arten von Lösungen](#arten-von-lösungen)
- [Verbindung zur Informatik](#verbindung-zur-informatik)
- [Typische Fragestellungen](#typische-fragestellungen)
- [Rechnerarithmetik](#rechnerarithmetik)
- [Maschinenzahl](#maschinenzahl)
- [Grenzen von Maschinenzahlen](#grenzen-von-maschinenzahlen)
- [Datentypen gem. IEEE](#datentypen-gem-ieee)
- [Rundungsfehler und Maschinengenauigkeit](#rundungsfehler-und-maschinengenauigkeit)
- [Konditionszahl](#konditionszahl)
- [Nullstellenprobleme](#nullstellenprobleme)
- [Problemstellung und Ansatz](#problemstellung-und-ansatz)
- [Fixpunktiteration](#fixpunktiteration)
- [Banachscher Fixpunktsatz](#banachscher-fixpunktsatz)
- [Newton-Verfahren](#newton-verfahren)
- [Sekantenverfahren](#sekantenverfahren)
- [Konvergenz-Ordnung](#konvergenz-ordnung)
- [Fehlerabschätzung](#fehlerabschätzung)
- [Formelbuchstaben zu Nullstellenproblem](#formelbuchstaben-zu-nullstellenproblem)
- [Lineare Gleichungssysteme](#lineare-gleichungssysteme)
- [Eigenschaften](#eigenschaften)
- [Dreiecks-Matrizen](#dreiecks-matrizen)
- [Der Gauss-Algorithmus](#der-gauss-algorithmus)
- [Fehlerfortpflanzung und Pivotisierung](#fehlerfortpflanzung-und-pivotisierung)
- [Determinanten-Bestimmung](#determinanten-bestimmung)
- [Die $LR$-Zerlegung](#die-lr-zerlegung)
- [$QR$-Zerlegung](#qr-zerlegung)
- [Housholder-Matrizen](#housholder-matrizen)
- [Vorgang](#vorgang)
- [Fehlerrechnung bei linearen Gleichungssystemen](#fehlerrechnung-bei-linearen-gleichungssystemen)
- [Vektor- und Matrixnormen](#vektor--und-matrixnormen)
- [Aufwand-Abschätzung](#aufwand-abschätzung)
- [Iterative Verfahren zur Lösung von Gleichungssystemen](#iterative-verfahren-zur-lösung-von-gleichungssystemen)
- [$LDR$-Zerlegung](#ldr-zerlegung)
- [Jacobi-Verfahren](#jacobi-verfahren)
- [Gauss-Seidel-Verfahren](#gauss-seidel-verfahren)
- [Konvergenz](#konvergenz)
- [Komplexe Zahlen](#komplexe-zahlen)
- [Rechen-Regeln](#rechen-regeln)
- [Eigenwerte und Eigenvektoren](#eigenwerte-und-eigenvektoren)
- [Numerische Bestimmung von Eigenwerten und Eigenvektoren](#numerische-bestimmung-von-eigenwerten-und-eigenvektoren)
- [Theorie](#theorie)
- [$QR$-Verfahren](#qr-verfahren)
- [Vektor-Iteration](#vektor-iteration)
- [Formelbuchstaben](#formelbuchstaben)
## Einführung
### Einsatzgebiet
- Annähern komplexer Formeln in endlicher Zeit
- Berechnung von Algorithmen durch Computer
- Algorithmen ohne expliziter Lösungsdarstellung
- Alternative Lösungsvorgänge für höhere Performance
### Arten von Lösungen
- Direkte Verfahren - Exakte Lösung nach endlicher Zeit
- Näherungsverfahren/Iteratives Verfahren - Approximation nach begrenzter Anzahl Rechenschritte
### Verbindung zur Informatik
- Effiziente Berechnung numerischer Algorithmen
- Speicherung und Darstellung von Zahlen
- Computergrafik & Bildverarbeitung
- Neuronale Netze
### Typische Fragestellungen
- Wie wirkt sich die Beschränkung der Anzahl Bits für Zahlenformate auf Rechenergebnisse und Rechengenauigkeit aus?
- Numerische Lösung von Nullstellenproblemen
- Numerische Integration
## Rechnerarithmetik
### Maschinenzahl
Maschinenzahlen werden als Zahlen $x$ in folgender Form dargestellt:
$x = m \cdot B^e$
- $x$: Die zu repräsentierende Zahl
- $m$: Die Mantisse (der darstellbare Zahlenwert)
- $B$: Die Basis der zu repräsentierenden Zahl
- $e$: Der Exponent (der Stellenwert der Mantisse $m$)
Beispiel:
$1337 = 0.1337 * 10^4$
Maschinenzahlen sind normalisiert, wenn
- für die Mantisse $m$ $0.1 <= |m| < 1.0$ zutrifft
Maschinenzahlen werden normalisiert, damit es zu jedem Wert eine eindeutige Darstellung als Maschinenzahl gibt.
### Grenzen von Maschinenzahlen
<div class="formula">
$x_{max} = B^{e_{max}} - B^{e_{max}-n} = (1 - B^{-n}) \cdot B^{e_{max}}$
$x_min = B^{e_{min} - 1}$
</div>
### Datentypen gem. IEEE
`float` oder `single`: 32 Bit - 1 Bit für Vorzeichen, 23 Bit für Mantisse $m$, 8 Bit für Exponent $e$
`double`: 64 Bit - 1 Bit für Vorzeichen, 52 für Mantisse $m$, 11 Bit für Exponent $e$
### Rundungsfehler und Maschinengenauigkeit
<div class="formula">
Absoluter Fehler:
$$|\tilde{x} - x|$$
</div>
<div class="formula">
Relativer Fehler:
$$\frac{|\tilde{x} - x|}{|x|}$$
</div>
<div class="formula">
Maximaler **absoluter** Rundungsfehler:
$$\frac{B}{2} \cdot B^{e - n - 1}$$
</div>
<div class="formula">
**Maschinengenauigkeit** oder maximaler **relativer** Rundungsfehler:
$$\frac{1}{2} \cdot B^{1 - n}$$
</div>
<div class="formula">
Fehlerfortpflanzung bei Funktionsauswertung:
Relativ:
$$\frac{|f'(x)| \cdot |x|}{|f(x)|} \cdot \frac{|\tilde{x} - x|}{|x|}$$
Absolut:
$$|f'(x)| \cdot |\tilde{x} - x|$$
</div>
<div class="letters">
- $B$: Die Basis der Maschinenzahl
- $e$: Der Exponent der Maschinenzahl (Standard-Wert: $0$)
- $n$: Die Anzahl Stellen der Mantisse $m$
- $x$: Der darzustellende Wert
- $\tilde{x}$: Die Annäherung/Approximation an $x$
- $f$: Auszuwertende Funktion
</div>
### Konditionszahl
Die Konditionszahl gibt an, wie gross der potenzielle relative Fehler einer numerischen Lösung ist.
Eine niedrige Konditionszahl ($K \le 1$) bedeutet einen niedrigen Fehler, eine hohe Konditionszahl ein grosses Fehlerrisiko.
Formel:
<div class="formula">
Konditionszahl:
$$K = \frac{|f'(x)| \cdot |x|}{|f(x)|}$$
</div>
## Nullstellenprobleme
### Problemstellung und Ansatz
Es wird der korrekte Wert $x$ für eine Aufgabe gesucht.
1. Aufgabe ausformulieren:
$x = \sqrt{A}$
2. Aufgabe zu Nullstellenproblem umformulieren (Funktion, die bei gesuchtem $x$ immer $0$ ergibt):
$f(x) = x^2 - A$
3. (Algorithmisch) richtiges $x$ finden, bei dem die Funktion $0$ ergibt
4. Das gefundene $x$ ist die Lösung
> ***Note:***
> Als Ausgangsbedingung für eine numerische Lösung eines Nullstellenproblems können diverse Bedingungen verwendet werden wie etwa:
> - Eine bestimmte Anzahl Iterationen
> - Abstand zwischen $x_n$ und $x_{n + 1}$ unterschreitet Threshold (approximiertes Resultat)
> - Ein niedriger Threshold ergibt ein genaueres Resultat
> - Ein Threshold von $0$ ergibt das genaue Resultat
### Fixpunktiteration
![](FixedPointIteration.png)
Ein möglicher Ansatz für ein solches Problem ist eine Fixpunktiteration.
Der Vorgang für eine solche ist folgende:
1. Die Funktion in die Form $F(x) = x$.
Beispiel für $f(x) = x^2 - A$:
$F(x) = \sqrt{A}$
2. Beliebigen Wert für $x_0$ wählen (vorzugsweise Wert in Nähe von erwarteter Lösung)
3. Fixpunktiteration $x_{n + 1}$ berechnen:
$x_{n+1} = F(x_n)$
Dies wird durchgeführt bis die Ausgangsbedingung erfüllt ist.
***Code-Beispiel:***
```py
import math
threshold = 10 ** -6
def f(x): # Funktion f in Nullstellenform
return math.cos(x) - x
def F(x): # Funktion f in Fixpunktform
return math.cos(x)
def F_(x): # Die Ableitung F'(x)
return return -math.sin(x)
x = 0.75 # Startwert - angenommene, etwaige Lösung
if F_(x) >= 1:
print("Fehler: Fixpunktiteration divergiert!")
else:
while math.abs(x - F(x)) >= threshold:
x = F(x)
print(f"Approximierte Lösung: {x}")
```
<div class="formula">
**Konvergenz**
Eine Fixpunktiteration is konvergent (also berechenbar), wenn folgendes zutrifft:
$$|F'(\tilde{x})| < 1$$
</div>
<div class="formula">
**Divergenz**
Eine Fixpunktiteration is divergent (also unberechenbar), wenn folgendes zutrifft:
$$|F'(\tilde{x})| \ge 1$$
</div>
<div class="letters">
- $F(x)$: Die Fixpunktgleichung
- $F'(x)$: Die Ableitung der Fixpunktgleichung
- $x$: Das genaue Resultat für $x$
- $\tilde{x}$: Das approximierte Resultat für $x$ (Fixpunkt)
- $x_n$: Die $n$-te Approximation für $x$
</div>
#### Banachscher Fixpunktsatz
Der Fixpunktsatz dient dazu, abzuschätzen, wie gross der Fehler des Ergebnisses einer Fixpunktiteration in etwa ist.
<div class="formula">
Fixpunktsatz:
$$|F(x) - F(y)| \le \alpha \cdot |x - y| \text{für alle }x,y \in [a, b]$$
Alternative Umformung:
$$\frac{|F(x) - F(y)|}{|x - y|} \le \alpha$$
</div>
<div class="formula">
**Fehlerabschätzung:**
a-priori Abschätzung:
$$|x_n - \overline{x}| \le \frac{\alpha^n}{1 - \alpha} \cdot |x_1 - x_0|$$
a-posteriori Abschätzung:
$$|x_n - \overline{x}| \le \frac{\alpha}{1 - \alpha} \cdot |x_n - x_{n - 1}|$$
</div>
<div class="formula">
Konstante $\alpha$:
$$\alpha = \max_{x_0 \in [a, b]}| F'(x_0)|$$
$$\alpha \approx |F'(\tilde{x})|$$
</div>
Folgendermassen kann dieser aufgestellt werden:
> ***Note:***
> In dieser Passage wird sowohl $a$ (der Buchstabe "a") als auch $\alpha$ (Alpha) verwendet. Diese haben hier eine unterschiedliche Bedeutung.
1. Start- und Endpunkt $a$ und $b$ auswählen, welche genau einen Fixpunkt $\tilde{x}$ beinhalten
2. Prüfen, ob folgendes Zutrifft: Alle Ergebnisse von $F([a, b])$ befinden sich im Intervall $[a, b]$
3. Konstante $\alpha$ berechnen (gem. Formel)
4. Die a-priori und die a-posteriori Abschätzung kann nun beliebig angewendet werden. Hierbei wird für $x_0$ der Wert $a$ verwendet.
### Newton-Verfahren
![](NewtonMethod.png)
Das Newton-Verfahren erreicht die Konvergenz (d.h. das (approximierte) Resultat) um einiges schneller.
Hierfür wird die Funktion $f$ in der Nullstellenform benötigt ($f(x) = \text{[...]} = 0$).
<div class="formula">
Newton-Verfahren:
$$x_{n + 1} = x_n - \frac{f(x_n)}{f'(x_n)}$$
</div>
<div class="formula">
Vereinfachtes Newton-Verfahren:
$$x_{n + 1} = x_n - \frac{f(x_n)}{f'(x_0)}$$
</div>
<div class="formula">
Konvergenz-Kontrolle:
$$\left|\frac{f(x) \cdot f''(x)}{(f'(x))^2}\right| < 1$$
Das Ergebnis ist wahr, wenn mit dem gewählten $x$ eine Konvergenz erreicht werden kann.
</div>
1. Startpunkt $x_0$ in der Nähe einer Nullstelle wählen
2. (Wahlweise vereinfachtes) Newton-Verfahren anwenden bis $x_n$ und $x_{n + 1}$ bis Ausgangsbedingung erreicht wird
### Sekantenverfahren
![](SecantMethod.png)
<div class="formula">
$$x_{n + 1} = x_n - \frac{x_n - x_{n - 1}}{f(x_n) - f(x_{n - 1})} \cdot f(x_n)$$
</div>
Vorgang:
1. Startpunkte $x_0$ und $x_1$ wählen (Punkte, die eine Nullstelle umschliessen)
2. Iteration durchführen, bis Ausgangsbedingung erfüllt wird
### Konvergenz-Ordnung
<div class="formula">
Ein Verfahren hat eine Konvergenz-Ordnung $q \ge 1$, wenn es eine Konstante $c > 0$ für die für alle $n$ Iterations-Schritte gilt:
$$|x_{n + 1} - \overline{x}| \le c \cdot |x_n - x}|^q$$
</div>
<div class="letters">
- $c$: Beliebige Konstante
- $q$: Konvergenz-Ordnung
- Für Newton-Verfahren: $q = 2$
- Für vereinfachtes Newton-Verfahren: $q = 1$
- Für Sekanten-Verfahren: $1 = (1 + \sqrt{5}) : 2 \approx 1.618$
</div>
### Fehlerabschätzung
<div class="formula">
Wenn folgendes zutrifft:
$$f(x_n - \varepsilon) \cdot f(x_n + \varepsilon) < 0$$
Schneidet $f$ zwischen $x_n - \varepsilon$ und $x_n + \varepsilon$ die Nullstelle.
Deswegen gilt folgendes:
$$|x_n - \xi| < \varepsilon$$
Sprich: Der Fehler ist kleiner als $\varepsilon$.
</div>
Vorgang:
- $\varepsilon$ suchen, für die oben genannte Bedingung zutrifft
- Der maximale Fehler ist $\varepsilon$
<div class="letters">
- $x_n$: Der approximierte $x$-Wert nach der $n$-ten Iteration
- $\varepsilon$: Der maximale Fehler
- $\xi$: Der Schnittpunkt der Nullstelle
</div>
### Formelbuchstaben zu Nullstellenproblem
<div class="letters">
- $\alpha$: Lipschitz-Konstante
- $[a, b]$: Der
- $F(x)$: Die Fixpunktgleichung
- $F'(x)$: Die Ableitung der Fixpunktgleichung
- $x$ und $y$: Beliebig gewählte Punkte im Interval $[a,b]$
- $\tilde{x}$: Das approximierte Resultat für $x$ (Fixpunkt)
- $x_n$ Die $n$-te Approximation von $x$
</div>
## Lineare Gleichungssysteme
<div class="letters">
**Lineares Gleichungssystem:**
Lineare Gleichungssysteme haben jeweils die Form $A \cdot x = b$ wobei $A$ und $b$ gegeben und $x$ gesucht ist:
$$A = \left(
\begin{matrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{matrix}
\right),
x = \left(
\begin{matrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{matrix}
\right),
b = \left(
\begin{matrix}
b_1 \\
b_2 \\
\vdots \\
b_n
\end{matrix}
\right)$$
</div>
### Eigenschaften
- Gleich viele gesuchte Variablen $x_n$ wie Gleichungen $n$. Folglich:
- Die Matrix $A$ ist eine quadratische Matrix mit Dimensionen $n \times n$
- $A$ ist invertierbar
- $A$ hat eine Determinante $\det(A)$
### Dreiecks-Matrizen
<div class="letters">
***$L$: Untere Dreiecksmatrix***
Eine Matrix, die in der oberen rechten Ecke nur den Wert $0$ und auf der Diagonale nur den Wert $1$ hat. Eine Untere Dreiecksmatrix hat also folgende Form:
$$L = \left(
\begin{matrix}
1 & 0 & 0 & \cdots & 0 \\
l_{21} & 1 & 0 & \cdots & 0 \\
l_{31} & l_{32} & 1 & \ddots & 0 \\
\vdots & \vdots & \ddots & \ddots & 0 \\
l_{n1} & l_{n2} & \cdots & l_{nn - 1} & 1
\end{matrix}
\right)$$
***$R$: Obere Dreiecksmatrix***
Eine Matrix, die unten links von der Diagonale nur den Wert $0$ beinhaltet. Eine Obere Dreiecksmatrix hat dementsprechend folgende Form:
$$R = \left(
\begin{matrix}
r_{11} & r_{12} & r_{13} & \cdots & r_{1n} \\
0 & r_{22} & r_{23} & \cdots & r_{2n} \\
0 & 0 & r_{33} & \cdots & r_{3n} \\
\vdots & \vdots & \ddots & \ddots & \vdots \\
0 & 0 & \cdots & 0 & r_{nn}
\end{matrix}
\right)$$
</div>
***Code-Beispiele:***
_Umwandlung in $R$-Matrix:_
```py
for i in range(n):
if A[i, i] == 0:
index = -1
for j in range(i + 1, n):
if A[j, i] > 0:
index = j
if index == -1:
raise Exception("Invalid Matrix")
else:
# Swap lines
A[[i, index]] = A[[index, i]]
for j in range(i + 1, n):
factor = A[j, i] / A[i, i]
A[j] = A[j] - (factor * A[i])
```
### Der Gauss-Algorithmus
Der Gauss-Algorithmus basiert darauf, dass ein lineares Gleichungssystem leicht lösbar ist, falls $A$ eine obere Dreiecksmatrix ist. $A$ muss also hierfür die Form einer oberen Dreiecksmatrix $R$ haben.
<div class="formula">
***Gauss-Algorithmus:***
$$x_i = \frac{b_i - \sum_{j = i + 1}^n{a_{ij} \cdot x_j}}{a_{ii}}, i = n, n - 1, \dots, 1$$
</div>
Um den Gauss-Algorithmus anzuwenden, muss die Matrix $A$ erst in eine $R$-Matrix umgewandelt werden. Dies funktioniert wie folgt:
1. Mit $i$ von $1$ bis $n$
2. Falls $a_{ii}$ den Wert $0$ hat:
1. Mit $j$ von $i + 1$ bis $n$
2. Prüfen, ob $a_{ji}$ einen höheren Wert als $0$ hat
- Falls Zeile gefunden wurde:
- $a_{i}$ mit $a_{j}$ tauschen
- $b_{i}$ mit $b_{j}$ tauschen
- Sonst beenden: ungültige Matrix
3. Mit $j$ von $i + 1$ bis $n$
1. $a_k = a_k - \frac{a_{ki}}{a_{ii}} \cdot a_i$
2. $b_k = b_k - \frac{a_{ki}}{a_{ii}} \cdot b_i$
***Code-Beispiel:***
```py
from numpy import array, zeros
def gaussMethod(A, b):
A = array(A)
n = A.shape[0]
A = A.reshape((n, n))
b = array(b).reshape((n))
result = zeros(n)
# Convert to R-Matrix
for i in range(n):
maxIndex = i
for j in range(i + 1, n):
if A[j, i] > A[maxIndex, i]:
maxIndex = j
# Swap lines
A[[i, maxIndex]] = A[[maxIndex, i]]
b[[i, maxIndex]] = b[[maxIndex, i]]
for j in range(i + 1, n):
factor = A[j, i] / A[i, i]
A[j] = A[j] - (factor * A[i])
b[j] = b[j] - (factor * b[i])
# Calculate result
for index in range(n, 0, -1):
i = index - 1
value = b[i]
for j in range(i, n):
value = value - A[i, j] * result[j]
result[i] = value / A[i, i]
return result.reshape((n, 1))
```
### Fehlerfortpflanzung und Pivotisierung
- Da beim Umwandeln einer Matrix $A$ in die $R$-Form Zeilen in jedem Schritt mit dem Faktor $\lambda = \frac{a_{ji}}{a_{ii}}$ multipliziert werden, vergrössert sich der Schritt immer um $|\lambda|$
- $\lambda$ kann klein gehalten werden, indem Zeilen der Grösse nach sortiert werden
- In den Code-Beispielen ist dies bereits berücksichtigt
### Determinanten-Bestimmung
Die Determinante einer Matrix $A$ lässt sich einfach berechnen, sobald sie in die $R$-Form gebracht wurde mit folgender Formel:
<div class="formula">
Determinanten-Bestimmung mit Matrix $\tilde{A}$ (die Matrix $A$ in der $R$-Form):
$$\det(A) =
(-1)^l \cdot \det(\tilde{A}) =
(-1)^l \cdot \prod_{i = 1}^n{\tilde{a_{ii}}}$$
</div>
***Code-Beispiel:***
```py
from numpy import array
def det(A):
l = 0
n = A.shape[0]
A = A.reshape((n, n))
# Convert to R-Matrix
for i in range(n):
maxIndex = i
for j in range(i + 1, n):
if A[j, i] > A[maxIndex, i]:
maxIndex = j
# Swap lines
A[[i, maxIndex]] = A[[maxIndex, i]]
l = l + 1
for j in range(i + 1, n):
factor = A[j, i] / A[i, i]
A[j] = A[j] - (factor * A[i])
result = 1
for i in range(n):
result = result * A[i, i]
return (-1 ** l) * result
```
### Die $LR$-Zerlegung
In der $LR$-Zerlegung wird die Matrix $A$ in die Matrizen $L$ und $R$ aufgeteilt, sodass $A = L \cdot R$ gilt.
Alternative Namen dieses Vorgangs sind ***$LR$-Faktorisierung*** und $LU$-decomposition.
<div class="formula">
Für in $L$ und $R$ zerlegte Matrizen gilt:
$$A \cdot x = b$$
und
$$A \cdot x = L \cdot R \cdot x = L \cdot y = b$$
Aufwand: Berechnung der $LR$-Zerlegung mit Gauss-Algorithmus benötigt ca. $\frac{2}{3}n^3$ Punktoperationen.
</div>
Falls Zeilenvertauschungen stattfinden, entsteht bei der $LR$-Zerlegung eine zusätzliche Permutations-Matrix $P$.
<div class="formula">
Für $L$ und $R$ zerlegte Matrizen mit Permutation $P$ gilt:
$$P \cdot A = L \cdot R$$
$$L \cdot y = P \cdot b$$
$$R \cdot x = y$$
</div>
Das Verfahren für die $LR$-Zerlegung ist identisch zu den Schritten bei der Umwandlung in eine $R$-Matrix. Jedoch wird jeweils der Wert $l_{ji}$ in der (zu Beginn) leeren Matrix $L$ mit dem im aktuellen Eliminationsschritt gesetzt. Zudem muss bei Vertauschungen die Permutations-Matrix $P$ entsprechend angepasst werden:
***Code-Beispiel:***
```py
from numpy import array, identity, zeros
def decomposite(A):
l = 0
n = A.shape[0]
R = A.reshape((n, n))
L = zeros((n, n))
P = identity((n, n))
# Convert to LR-Matrix
for i in range(n):
maxIndex = i
for j in range(i + 1, n):
if A[j, i] > A[maxIndex, i]:
maxIndex = j
# Swap lines
Pn = identity((n, n))
A[[i, maxIndex]] = A[[maxIndex, i]]
Pn[[i, maxIndex]] = Pn[[maxIndex, i]]
P = P * Pn
for j in range(i + 1, n):
factor = R[j, i] / R[i, i]
L[j, i] = factor
R[j] = R[j] - (factor * R[i])
result = 1
for i in range(n):
result = result * R[i, i]
return [L, R, P]
```
Wenn die $LR$-Zerlegung, wie in diesem Code, Zeilenaustausch und das Berechnen von $P$ involviert, spricht man von einer $LR$-Zerlegung mit **Spaltenmaximum-Strategie**.
***Vorgang:***
1. Gemäss vorhergehender Beschreibung und Code-Beispiel die Matrizen $L$ und $R$ berechnen
2. Mit Hilfe des Gauss-Algorithmus $L \cdot y = P \cdot b$ nach $y$ auflösen
3. Mit Hilfe des Gauss-Algorithmus $R \cdot x = y$ nach $x$ auflösen
### $QR$-Zerlegung
- Die Matrix $A$ wird in eine orthogonale Matrix $Q$ und eine obere Dreiecksmatrix $R$ zerlegt.
- Orthogonal-Matrizen beschreiben Drehungen, Spiegelungen oder Kombinationen daraus.
- Eine $QR$-Zerlegung erfordert ca. $\frac{5}{3}n^3$ Punktoperationen - ca. doppelt so viel wie die $LR$-Zerlegung.
<div class="formula">
***Orthogonal-Matrix:***
Eine Matrix $Q$ ist orthogonal, wenn folgendes gilt:
$$Q^T \cdot Q = I_n$$
($x^T$ steht hierbei für eine **T**ransformation)
</div>
#### Housholder-Matrizen
Im Rahmen der Berechnung der Matrizen $Q$ und $R$ werden sogenannte "Housholder-Matrizen" berechnet.
<div class="formula">
***Housholder-Matrizen:***
Sei $u$ ein Vektor mit beliebig vielen Dimensionen, für den gilt:
$$|u| = \sqrt{u_1^2 + u_2^2 + \dots + u_n^2} = 1$$
Die Householder-Matrix hat folgende Eigenschaft:
$$H := I_n - 2 \cdot u \cdot u^T$$
Für Housholder-Matrizen gilt zudem folgendes:
$$H = H^T = H^{-1}$$
und
$$H \cdot H = I_n$$
</div>
***Berechnung einer Housholder-Matrix***
Beispiel der Berechnung einer Housholder-Matrix zur ersten Spalte der Matrix $A$.
> Für die Berechnung wird ein Einheitsvektor $e$ benötigt, welcher genauso viele Werte hat, wie die Matrix Dimensionen. Ein Einheitsvektor hat im ersten Feld den Wert $1$ und in allen anderen Feldern der Wert $0$.
>
> Für eine Matrix $A$ mit der Dimension $n = 3$ lautet der Einheitsvektor $e$ also wie folgt:
> $$e = \left(\begin{matrix}
> 1 \\
> 0 \\
> 0
> \end{matrix}\right)
1. Vektor $v$ bestimmen
$$v = a_1 + sign(a_{11}) \cdot |a_1| \cdot e$$
2. Vektor normieren:
$$u = \frac{1}{|v|} \cdot v =
\frac{1}{\sqrt{1^2 + 2^2 + 3^2}} \cdot
\left(\begin{matrix}
1 \\
2 \\
3
\end{matrix}\right) =
\frac{1}{\sqrt{14}} \cdot
\left(\begin{matrix}
1 \\
2 \\
3
\end{matrix}\right)$$
2. Die Housholder-Matrix $H = I_n - 2 \cdot u \cdot u^T$ berechnen.
$$H =
\left(\begin{matrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{matrix}\right) -
2 \cdot \frac{1}{\sqrt{14}} \cdot
\left(\begin{matrix}
1 \\
2 \\
3
\end{matrix}\right) \cdot
\frac{1}{\sqrt{14}} \cdot
\left(\begin{matrix}
1 & 2 & 3
\end{matrix}\right) \\
H =
\left(\begin{matrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{matrix}\right) -
2 \cdot \frac{1}{14} \cdot
\left(\begin{matrix}
1 & 2 & 3 \\
2 & 4 & 6 \\
3 & 6 & 9
\end{matrix}\right) =
-\frac{1}{7} \cdot
\left(\begin{matrix}
-6 & 2 & 3 \\
2 & -3 & 6 \\
3 & 6 & 2
\end{matrix}\right)$$
<div class="letters">
- $H$: Housholder-Matrix
- $I$: Identitäts-Matrix
- $n$: Anzahl Dimensionen der Matrix
</div>
#### Vorgang
Im Rahmen des Vorgangs entspricht $A_1$ der Matrix $A$.
Die $QR$-Zerlegung kann folgendermassen durchgeführt werden:
1. $R = A$
2. $Q = I_n$
3. Für $i$ von $1$ bis $n - 1$
1. Gemäss vorheriger Anleitung Householder-Matrix $H_i$ für den Vektor `A[i:,i:i + 1]` berechnen (`i`-te Spalte ab Zeile `i`)
2. Householder-Matrix um Identitäts-Matrix erweitern. Beispiel:
![](ExpandHouseholder.png)
3. Erweiterte Householder-Matrix als $Q_i$ speichern
4. $R = Q_i \cdot R$
5. $Q = Q \cdot Q_i^T$
6. Die Gleichung $R \cdot x = Q^T \cdot b$ mit Gauss-Algorithmus lösen
***Code-Beispiel:***
```py
from numpy import array, identity, sign, sqrt, square, sum, zeros
def qrSolve(A, b):
A = array(A)
n = A.shape[0]
R = A.reshape((n, n))
Q = identity(n)
for i in range(n - 1):
I = identity(n - i)
Qi = identity(n)
e = zeros((n - i, 1))
e[0][0] = 1
a = R[i:,i:i + 1]
v = a + sign(a[0]) * sqrt(sum(square(a))) * e
u = (1 / sqrt(sum(square(v)))) * v
H = I - 2 * u @ u.T
Qi[i:,i:] = H
R = Qi @ R
Q = Q @ Qi.T
R[i + 1:,i:i + 1] = zeros((n - (i + 1), 1))
return linalg.solve(R, Q.T @ b)
```
### Fehlerrechnung bei linearen Gleichungssystemen
Ähnlich wie herkömmliche Gleichungen, können Gleichungssysteme nicht mit eindeutiger Genauigkeit berechnet werden. Es entsteht ein Fehler.
<div class="formula">
***Fehler bei linearen Gleichungssystemen:***
$$A \cdot \tilde{x} = \tilde{b} = b + \Delta b$$
$$\Delta x = \tilde{x} - x$$
</div>
<div class="letters">
- $A$: Matrix eines linearen Gleichungssystems
- $b$: Gewünschtes Ergebnis des Gleichungssystems
- $\tilde{b}$: Ergebnis des Gleichungssystems unter Verwendung von $\tilde{x}$ in $A \cdot \tilde{x}$
- $\Delta b$: Residuum: Die Differenz von $b$ und $\tilde{b}$
- $x$: Genaue Lösung
- $\tilde{x}$: Näherungslösung von $x$
- $\Delta x$: Der Fehler der Näherungslösung $\tilde{x}$
</div>
#### Vektor- und Matrixnormen
<div class="formula">
***Vektornormen:***
$1$-Norm, Summen-Norm:
$$||x||_1 = \sum_{i = 1}^n|x_i|$$
$2$-Norm, euklidische Norm:
$$||x||_2 = \sqrt{\sum_{i = 1}^n x_i^2}$$
$\infin$-Norm, Maximum-Norm:
$$||x||_\infin = \max_{i = 1, \dots, n}|x_i|$$
</div>
<div class="formula">
***Matrixnormen:***
$1$-Norm, Spaltensummen-Norm:
$$||A||_1 = \max_{j=1, \dots, n}\sum_{i = 1}^n|a_{ij}|$$
$2$-Norm, Spektral-Norm:
$$||A||_2 = \sqrt{\rho(A^T \cdot A)}$$
$\infin$-Norm, Zeilensummen-Norm:
$$||A||_\infin = \max_{i = 1, \dots, n}\sum_{j = 1}^n|a_{ij}|$$
</div>
Folgendes gilt für die Abschätzung von Vektoren und Matrizen:
<div class="formula">
***Fehlerabschätzung von Vektoren und Matrizen:***
Für die Gleichung $A \cdot x = b$ und die dazugehörige Approximation $A \cdot \tilde{x} = \tilde{b}$ gilt:
Absoluter Fehler:
$$||x - \tilde{x}|| \le ||A^{-1}|| \cdot ||b - \tilde{b}||$$
Falls $||b|| \not = 0$ gilt zudem:
Relativer Fehler:
$$\frac{||x - \tilde{x}||}{||x||} \le ||A|| \cdot ||A^{-1}|| \cdot \frac{||b - \tilde{b}||}{||b||}$$
</div>
<div class="formula">
***Konditionszahl:***
Die Konditionszahl $cond(A)$ einer Matrix $A$ berechnet sich wie folgt:
$$cond(A) = ||A|| \cdot ||A^{-1}||$$
Eine hohe Konditionszahl $cond(A)$ bedeutet, dass kleine Fehler im Vektor $b$ zu grossen Fehlern im Ergebnis $x$ führen können. In diesem Fall ist eine Matrix schlecht konditioniert.
</div>
<div class="formula">
***Fehlerabschätzung von Matrizen mit Fehlern:***
Sollte auch die Matrix $A$ fehlerhaft sein (fehlerhafte Matrix $\tilde{A}$), gilt der nachstehende Satz unter folgender Bedingung:
$$cond(A) \cdot \frac{||A - \tilde{A}||}{||A||} < 1$$
dann gilt:
Relativer Fehler:
$$\frac{||x - \tilde{x}||}{||x||} \le
\frac{cond(A)}{1 - cond(A) \cdot \frac{||A - \tilde{A}||}{||A||}} \cdot
\left(
\frac{||A - \tilde{A}||}{||A||} +
\frac{||b - \tilde{b}||}{||b||}
\right)$$
</div>
### Aufwand-Abschätzung
<div class="formula">
***Kennzahlen:***
Lösung Linearer Gleichungssysteme mit Hilfe von...
Gauss-Elimination:
$$\frac{2}{3}n^3 + \frac{5}{2}n^2 - \frac{13}{6}n$$
$LR$-Zerlegung:
$$\frac{2}{3}n^3 + \frac{7}{2}n^2 + \frac{13}{6}n$$
$QR$-Zerlegung:
$$\frac{5}{3}n^3 + 4n^2 + \frac{7}{3}n - 7$$
</div>
<div class="formula">
***Ordnung $O(n)$***
Die Ordnung $O(n)$ der zuvor genannten Verfahren entspricht der höchsten Potenz von $n$, welche in der Formel zur Berechnung des Aufwands vorkommt.
Das bedeutet also folgendes:
Ordnung von Gauss-Elimination, $LR$-Zerlegung und $QR$-Zerlegung:
$$O(n^3)$$
</div>
## Iterative Verfahren zur Lösung von Gleichungssystemen
### $LDR$-Zerlegung
Für die $LDR$-Zerlegung wird die Matrix $A$ in drei Matrizen $L$, $D$ und $R$ aufgeteilt, wobei $L$ eine untere Dreiecksmatrix, $D$ eine Diagonalmatrix und $R$ eine obere Dreiecksmatrix ist. Das bedeutet:
$$A = L + D + R$$
Mit
$$L = \left(
\begin{matrix}
0 & 0 & 0 & \cdots & 0 \\
a_{21} & 0 & 0 & \cdots & 0 \\
a_{31} & a_{32} & 0 & \cdots & 0 \\
\vdots & \vdots & \ddots & \ddots & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn - 1} & 0
\end{matrix}
\right)$$
$$D = \left(
\begin{matrix}
a_{11} & 0 & 0 & \cdots & 0 \\
0 & a_{22} & 0 & \cdots & 0 \\
0 & 0 & a_{33} & \cdots & 0 \\
\vdots & \vdots & \ddots & \ddots & \vdots \\
0 & 0 & \cdots & 0 & a_{nn}
\end{matrix}
\right)$$
$$R = \left(
\begin{matrix}
0 & a_{12} & a_{13} & \cdots & a_{1n} \\
0 & 0 & a_{23} & \cdots & a_{2n} \\
0 & 0 & 0 & \ddots & \vdots \\
\vdots & \vdots & \ddots & \ddots & a_{n-1,n} \\
0 & 0 & \cdots & 0 & 0
\end{matrix}
\right)$$
> ***Wichtig:***
> Hierbei handelt es sich nicht um $L$ und $R$ aus der $LR$-Zerlegung!
### Jacobi-Verfahren
Das Jacobi-Verfahren ist ein iteratives Verfahren, welches nach jeder Iteration näher mit der tatsächlichen Lösung $x$ konvergiert.
Das Jacobi-Verfahren ist auch bekannt als **Gesamtschrittverfahren**.
<div class="formula">
***Jacobi-Verfahren:***
Zunächst beginnt man mit $x^{(0)}$ als ein Vektor, der nur aus $0$en besteht.
$$x^{(k + 1)} = -D^{-1} \cdot (L + R) \cdot x^{(k)} + D^{-1} \cdot b$$
Für die Berechnung einzelner Elemente des Vektors $x^{(k + 1)}$ gilt:
Für $i$ von $1$ bis $n$:
$$x^{(k + 1)}_i = \frac{1}{a_{ii}} \cdot
\left(
b_i - \sum_{j = 1,j \not = i}^n a_{ij} \cdot x^{(k)}_j
\right)$$
</div>
<div class="letters">
- $x^{(k)}$: Die Annäherung an $x$ nach der $k$-ten Iteration
</div>
### Gauss-Seidel-Verfahren
Das Gauss-Seidel-Verfahren konvergiert schneller als das Jacobi-Verfahren.
Da für die Berechnung des Jacobi-Verfahrens für die Berechnung von $x_2$ auch Werte von $x_1$ verwendet werden, können die Werte direkt aus der aktuellen Iteration $k$ wiederverwendet werden, um den Vorgang schneller konvergieren zu lassen.
Das Gauss-Seidel-Verfahren wird auch **Einzelschrittverfahren** genannt.
<div class="formula">
***Gauss-Seidel-Verfahren:***
$$x^{(k+1)} = -(D + L)^{-1} \cdot R \cdot x^{(k)} + (D + L)^{-1} \cdot b$$
Für die Berechnung einzelner Vektor-Komponente wiederum:
Für $i$ von $1$ bis $n$:
$$x^{(k + 1)}_i = \frac{1}{a_{ii}} \cdot
\left(
b_i - \sum_{j = 1}^{i - 1} a_{ij} \cdot x^{k + 1}_j -
\sum_{j = i + 1}^n a_{ij} \cdot x^{(k)}_j
\right)$$
</div>
### Konvergenz
<div class="formula">
***Anziehung/Abstossung:***
Gegeben sei eine Fixpunkt-Iteration:
$$x^{(n + 1)} = B \cdot x^{(n)} + c =: F(x^{(n)})$$
Beispiele für solche Fixpunkt-Iterationen sind das Jacobi- oder das Gauss-Seidel-Verfahren.
Falls folgendes gegeben ist: $\tilde{x} = B \cdot \tilde{x} + c = F(\tilde{x})$, dann gilt:
- $\tilde{x}$ ist ein anziehender Fixpunkt, falls $||B|| < 1$
- $\tilde{x}$ ist ein abstossender Fixpunkt, falls $||B|| > 1$
</div>
<div class="formula">
***Abschätzungen:***
Gegeben sei eine Fixpunkt-Iteration:
$$x^{(n + 1)} = B \cdot x^{(n)} + c =: F(x^{(n)})$$
Für Fixpunkt-Iterationen bei denen $x^{(k)}$ gegen $\tilde{x}$ konvergiert (gemäss oben stehender Formel "Anziehung/Abstossung"), gelten folgende Abschätzungen:
a-priori Abschätzung:
$$||x^{(n)} - \overline{x}|| \le
\frac{||B||^n}{1 - ||B||} \cdot
||x^{(1)} - x^{(0)}||$$
a-posteriori Abschätzung:
$$||x^{(n)} - \overline{x}|| \le
\frac{||B||}{1 - ||B||} \cdot
||x^{(n)} - x^{(n - 1)}||$$
</div>
Die Matrix $B$ hat hierbei je nach verwendetem Verfahren einen anderen Wert:
<div class="formula">
***Matrix $B$ für Abschätzung und Konvergenz***
- Für das Jacobi-Verfahren:
$$B = -D^{-1} \cdot (L + R)$$
- Für das Gauss-Seidel-Verfahren
$$B = -(D + L)^{-1} \cdot R$$
</div>
<div class="formula">
***Diagonal-Dominanz:***
Die Matrix $A$ ist diagonal-dominant, falls eines der folgenden Kriterien zutrifft:
- Zeilensummen-Kriterium:
- Für alle $i = 1, \dots, n$ gilt:
$$|a_{ii}| > \sum_{j = 1, i \not = j}^n{|a_{ij}|}$$
- Spaltensummen-Kriterium:
- Für alle $i = 1, \dots, n$ gilt:
$$|a_{jj}| > \sum_{i = 1, i \not = j}{|a_{ij}|}$$
Für alle Matrizen, die diagonal-dominant sind gilt, dass sie für das Jacobi- und das Gauss-Seidel-Verfahren konvergieren.
</div>
## Komplexe Zahlen
Der Bereich der Komplexen Zahlen dient dazu, Werte abzubilden, die es eigentlich nicht geben kann.
Beispiel einer komplexen Zahl:
$$x^2 = -1$$
Es gibt keinen Wert, der $-1$ ergibt, wenn er quadriert wird. Es handelt sich also um eine komplexe Zahl.
Dafür wird die imaginäre Einheit $i$ eingeführt mit folgender Eigenschaft:
$$i^2 = -1$$
Für diese Definition wäre das Resultat von $x^2= -1$ also $x = \plusmn{i}$
In Python und in der Elektrotechnik wird der Buchstabe $j$ verwendet.
Komplexe Zahlen $z$ mit $z = x + i \cdot y$ können nicht auf einem Zahlenstrahl dargestellt werden.
Sie können in einem Koordinaten-System eingezeichnet werden, wobei $x$ der reale und $y$ der imaginäre Anteil sind:
![](ComplexNumbers.png)
Dieses Koordinaten-System nennt sich auch **Gaussche Zahlenebene**.
<div class="formula">
***Komplexe Zahlen:***
Imaginäre Einheit $i$:
$$i^2 = -1$$
Komplexe Zahlen $z$:
$$z = x + i \cdot y$$
**Konjugierte** komplexe Zahl:
$$z^* = x - i \cdot y$$
Betrag von $z$:
$$|z| = \sqrt{x^2 + y^2}$$
Menge aller komplexen Zahlen $\mathbb{C}$:
$$\mathbb{C} = \{ z | z = x + i \cdot y \text{ mit } x, y \in \mathbb{R}\}$$
</div>
Veranschaulichung einer konjugierten komplexen Zahl $z^*$:
![](ConjugatedComplexNumber.png)
<div class="letters">
- $\mathbb{C}$: Menge aller komplexen Zahlen
- $x$: Realteil einer komplexen Zahl
- $y$: Imaginärteil einer komplexen Zahl
- $z$: Komplexe Zahl
</div>
<div class="formula">
***Darstellungsformen:***
Es gibt diverse Darstellungsformen für komplexe Zahlen:
- Normalform (auch "algebraische" oder "kartesische" Form):
$$z = x + i \cdot y$$
- Trigonometrische Form:
$$z = r \cdot (\cos(\varphi) + i \cdot \sin(\varphi))$$
- Exponential-Form:
$$z = re^{i \cdot \varphi}$$
</div>
Beispiel einer komplexen Zahl $z$ in der Normalform und der Trigonometrischen Form:
![](TrigonometricComplexNumber.png)
<div class="letters">
- $r$: Die Länge des Vektors einer komplexen Zahl $z$ ($r = |z|$)
- $\varphi$: Der Winkel zwischen der x-Achse und dem Vektor der komplexen Zahl $z$
</div>
### Rechen-Regeln
<div class="formula">
***Rechen-Regeln für komplexe Zahlen:***
Addition:
$$z_1 + z_2 = (x_1 + x_2) + i \cdot (y_1 + y_2)$$
Subtraktion:
$$z_1 - z_2 = (x_1 - x_2) + i \cdot (y_1 - y_2)$$
Multiplikation:
$$z_1 \cdot z_2 = (x_1 \cdot x_2 - y_1 \cdot y_2) +
i \cdot(x_1 \cdot y_2 + x_2 \cdot y_2)$$
Division:
$$\begin{aligned}
\frac{z_1}{z_2} &=
\frac{z_1 \cdot z_2^*}{z_2 \cdot z_2^*} =
\frac{(x_1 + i \cdot y_1) \cdot (x_2 - i \cdot y_2)}{(x_2 + i \cdot y_2) \cdot (x_2 - i \cdot y_2)} \\
&= \frac{(x_1 \cdot x_2 + y_1 \cdot y_2) + i \cdot (y_1 \cdot x_2 - x_1 \cdot y_2)}{x_2^2 + y_2^2} \\
&= \frac{(x_1 \cdot x_2 + y_1 \cdot y_2)}{x_2^2 + y_2^2} + i \cdot \frac{(y_1 \cdot x_2 - x_1 \cdot y_2)}{x_2^2 + y_2^2}
\end{aligned}$$
</div>
Visualisierung von Addition und Subtraktion zwei komplexer Zahlen $z_1$ und $z_2$:
![](ComplexNumberMath.png)
<div class="formula">
***Potenzieren in der Polarform:***
Für komplexe Zahlen in der Normalform gilt folgendes:
- Sei $n \in \mathbb{N}$:
$$z^n = (r \cdot e^{i \cdot \varphi})^n = r^n \cdot e^{i \cdot n \cdot \varphi} =
r^n \cdot (\cos(n \cdot \varphi) + i \cdot \sin(n \cdot \varphi))$$
</div>
<div class="formula">
***Fundamentalsatz der Algebra:***
Eine algebraische Gleichung $n$-ten Grades mit komplexen Koeffizienten und Variablen $a_i, z \in \mathbb{C}$
$$a_n \cdot z^n + a_{n - 1} \cdot z^{n - 1} + \dots + a_1 \cdot z + a_0 = 0$$
besitzt in der Menge $\mathbb{C}$ der komplexen Zahlen genau $n$ Lösungen.
</div>
<div class="formula">
***Ziehen der Wurzel einer komplexen Zahl:***
Die Gleichung für das Ziehen einer Wurzel $n$ der komplexen Zahl $a$ lautet: $z^n = a$.
Für die Lösung dieser Gleichung existieren genau $n$ verschiedene Lösungen in der Menge $\mathbb{C}$:
$$z_k = r \cdot (\cos(\varphi_k + i \cdot \sin(\varphi_k)) = r \dot e^{i \cdot \varphi_k}$$
für $k = 0, 1, 2, \dots, n - 1$:
mit
$$r = \sqrt[n]{r_0}$$
$$\varphi_k = \frac{\varphi + k \cdot 2 \cdot \pi}{n}$$
Die Bildpunkte der Ergebnisse liegen in der komplexen Zahlenebene auf einem Kreis um den Nullpunkt mit dem Radius $r = \sqrt[n]{r_0}$ und bilden die Ecken eines regelmässigen $n$-Ecks.
</div>
Visualisierung des Ziehens der $6$-ten Wurzel einer komplexen Zahl $z$:
![](RootComplexNumber.png)
## Eigenwerte und Eigenvektoren
Für Matrizen $A$ gibt es Vektoren $x$ und Faktoren $\lambda$, für die gilt:
$$A \cdot x = \lambda \cdot x$$
- $x$-Werte, für die das zutrifft, nennen sich **Eigenvektoren** von $A$
- $\lambda$-Werte, für die das zutrifft, nennen sich **Eigenwerte** von $A$
<div class="formula">
***Eigenwerte und Eigenvektoren:***
Falls für eine gegebene Matrix $A$, einen beliebigen Vektor $x \not = 0$ und einen beliebigen Wert $\lambda$ folgendes zutrifft:
$$A \cdot x = \lambda \cdot x$$
- $x$ ist ein **Eigenvektor** von $A$
- $\lambda$ ist ein **Eigenwert** von $A$
</div>
In manchen Fällen müssen für die Berechnung von Eigenwerten und Eigenvektoren komplexe Vektoren $z$ normiert werden.
Dies funktioniert folgendermassen:
<div class="formula">
***Normierung komplexer Vektoren:***
$$x = z \cdot \frac{1}{|z|} =
\left(
\begin{matrix}
z_1 \\
\vdots \\
z_n
\end{matrix}
\right) \cdot
\frac{1}{\sqrt{z_1 \cdot z_1^* + \dots + z_n \cdot z_n^*}}$$
</div>
<div class="letters">
- $z$: Komplexer Vektor
- $z_n$: $n$-te Komponente des Vektors $z$
- $x$: Normierter Vektor $z$
</div>
<div class="formula">
***Eigenschaften von Eigenwerten:***
$\lambda$ ist ein Eigenwert von $A$, fals folgendes gilt:
$$det(A - \lambda \cdot I_n) = 0$$
</div>
<div class="formula">
***Eigenwerten und die Spur & Determinante von Matrizen:***
- Die Determinante einer Matrix $A$ ist das Produkt aller Eigenwerte.
- Die Spur (trace) - also die Summe aller Diagonalelemente - ist die Summe aller Eigenwerte
$$det(A) = \lambda_1 \cdot \lambda_2 \dots \lambda_n$$
$$trace(A) = a_{11} + a_{22} + \dots + a_{nn} = \lambda_1 + \lambda_2 + \dots + \lambda_n$$
- Wenn $\lambda$ ein Eigenwert von $A$ ist, so ist der Kehrwert $\frac{1}{\lambda}$ ein Eigenwert der inversen Matrix $A^{-1}$
</div>
<div class="formula">
- Die Vielfachheit, mit der $\lambda$ in der Determinante auftritt nennt sich **algebraische Vielfachheit** von $\lambda$
- Das **Spektrum** $\sigma(A)$ ist die Menge aller Eigenwerte von $A$
</div>
<div class="formula">
***Eigenwerte in speziellen Matrizen:***
Für Diagonal-Matrizen und Dreiecks-Matrizen gilt:
- Die Eigenwerte entsprechen den Diagonal-Elementen.
</div>
<div class="formula">
***Eigenraum:***
Als Eigenraum bezeichnet man eine beliebige Anzahl Vektoren, die alle für dein Eigenwert $\lambda$ gelten.
Indem man diese Vektoren kombiniert, lassen sich beliebig viele neue Eigenvektoren zum Eigenwert $\lambda$ bestimmen.
Für den Eigenwert $\lambda$ von $A$ bilden Eigenvektoren zum Eigenwert $\lambda$ und der Nullvektor $0$ einen **Eigenraum** der Form $\mathbb{C}^n$
- Die Dimension des Eigenraumes von $\lambda$ bestimmt sich durch folgende Formel:
$$n - Rg(A - \lambda \cdot I_n)$$
Das Ergebnis nennt sich **geometrische Vielfachheit** und entspricht der Anzahl unabhängiger Eigenvektoren zum Eigenwert $\lambda$.
- Die geometrische Vielfachheit ist kleiner oder gleich der **algebraischen Vielfachheit**
</div>
<div class="letters">
- $A$: Eine beliebige Matrix
- $x$: Eigenvektor einer Matrix $A$
- $\lambda$: Eigenwert einer Matrix $A$
</div>
### Numerische Bestimmung von Eigenwerten und Eigenvektoren
#### Theorie
<div class="formula">
***Ähnliche Matrizen:***
Eine Matrix $B$ ist zu einer Matrix $A$ ähnlich, wenn für eine beliebige Matrix $T$ gilt:
$$B = T^{-1} \cdot A \cdot T$$
***Diagonalisierbarkeit:***
Eine Matrix $A$ ist _diagonalisierbar_, wenn für eine Matrix $T$ das Ergebnis $D$ von
$$D = T^{-1} \cdot A \cdot T$$
eine Diagonalmatrix ist.
</div>
<div class="letters">
- $A$: Beliebige Matrix
- $B$: Ergebnis einer Transformation der Matrix $A$
- $D$: Ergebnis einer Transformation der Matrix $A$, welche eine Diagonalmatrix ist
- $T$: Beliebige Transformations-Matrix
</div>
<div class="formula">
***Eigenwerte und Eigenvektoren ähnlicher/diagonalisierbarer Matrizen:***
- Es seien $A$ und $B$ zueinander ähnliche Matrizen
- $A$ und $B$ haben dieselben Eigenwerte inkl. deren algebraische Vielfachheit
- Ist $x$ ein Eigenvektor zum Eigenwert $\lambda$ von $B$, so ist $T \cdot x$ ein Eigenvektor zum Eigenwert $\lambda$ von $A$
- Wenn $A$ diagonalisierbar ist gilt zudem folgendes:
- Für $D = T^{-1} \cdot A \cdot T$
- Die $n$ Diagonal-Elemente von $D$ sind die Eigenwerte von $A$
- Die $n$ linear unabhängigen Eigenvektoren von $A$ sind die Spalten des verwendeten $T$
</div>
#### $QR$-Verfahren
Das $QR$-Verfahren ist ein iteratives Verfahren zur Bestimmung von Eigenwerten einer Matrix $A$.
Der Vorgang ist dabei folgender:
1. $A_0 = A$
2. $P_0 = I_n$
3. Für $i = 0, 1, 2, \dots, \infin$:
1. $QR$-Zerlegung durchführen: $A_i = Q_i \cdot R_i$
2. $A_{i + 1} = R_i \cdot Q_i$
3. $P_{i + 1} = P_i \cdot Q_i$
4. $P_i$ zurückgeben
***Code-Beispiel:***
```py
from numpy import array, identity, sign, sqrt, square, sum, zeros
def qr(A):
A = array(A)
n = A.shape[0]
R = A.reshape((n, n))
Q = identity(n)
for i in range(n - 1):
I = identity(n - i)
Qi = identity(n)
e = zeros((n - i, 1))
e[0][0] = 1
a = R[i:,i:i + 1]
v = a + sign(a[0]) * sqrt(sum(square(a))) * e
u = (1 / sqrt(sum(square(v)))) * v
H = I - 2 * u @ u.T
Qi[i:,i:] = H
R = Qi @ R
Q = Q @ Qi.T
R[i + 1:,i:i + 1] = zeros((n - (i + 1), 1))
return [Q, R]
def EV(A, iterations):
A = array(A)
n = A.shape[0]
P = identity(n)
for i in range(iterations):
[Q, R] = qr(A)
A = R @ Q
P = P @ Q
return [A, P]
```
### Vektor-Iteration
Die Vektor-Iteration, auch **von-Mises-Iteration** genannt, erlaubt das Bestimmen des grössten Eigenwertes $\lambda$ einer diagonalisierbaren Matrix $A$.
<div class="formula">
***Spektral-Radius:***
Der Spektral-Radius $\rho(A)$ definiert den höchsten Eigenwert der Matrix $A$:
$$\rho(A) = \max\{|\lambda|\; | \; \lambda \text{ ist ein Eigenwert von }A \in \mathbb{R}^{n \times n}\}$$
</div>
<div class="formula">
Sei $A$ eine diagonalisierbare Matrix mit den Eigenwerten $\lambda_1, \dots, \lambda_n$ wobei $\lambda_1$ betragsmässig am höchsten ist:
$$|\lambda_1| > |\lambda_2| \ge \dots \ge | \lambda_n|$$
Der grösste Eigenwert $\lambda_1$ und der dazugehörige Eigenvektor $v$ lässt sich mit der Vektor-Iteration bestimmen.
Zunächst muss ein beliebiger Startvektor $v_0 \in \mathbb{C}^n$ mit Länge $1$ gewählt werden.
Als nächstes wird für $k = 0, \dots, \infin$ folgendes ausgeführt:
$$v^{(k + 1)} = \frac{A \cdot v^{(k)}}{||A \cdot v^{(k)}||_2}$$
$$\lambda^{(k + 1)} = \frac{(v^{(k)})^T \cdot A \cdot v^{(k)}}{(v^{(k)})^T \cdot v^{(k)}}$$
</div>
***Code-Beispiel:***
```py
from numpy import array, linalg
def vectorIteration(A, v, iterations = 10):
l = 0
v = array(v)
v = v.reshape(len(v), 1)
for i in range(iterations):
l = ((v.T @ A @ v) / (v.T @ v)).item()
v = (A @ v) / (linalg.norm(A @ v, ord=2))
print()
print(f"k: {i + 1}")
print(f"x: {v}")
print(f"λ: {l}")
return [v, l]
```
## Formelbuchstaben
<div class="letters">
- $\alpha$: Lipschitz-Konstante (siehe Fixpunktsatz)
- $[a,b]$: Das Untersuchungs-Interval für den Banachschen Fixpunktsatz
- $A$: Matrix eines linearen Gleichungssystems
- $\tilde{A}$: Umgewandelte Version der Matrix $A$
- $A^T$: Transformierte Matrix $A$
- $b$: Das gewünschte Resultat eines linearen Gleichungssystems
- $B$: Basis der Maschinenzahl
- $e$: Exponent der Maschinenzahl
- $H$: Housholder-Matrix (siehe $QR$-Zerlegung)
- $I$: Identitäts-Matrix (Matrix, überall den Wert $0$ und auf der Diagonalen den Wert $1$ hat)
- $i$: Imaginäre Einheit für die Darstellung komplexer Zahlen
- $j$: Alternative Schreibweise für $i$ in Python und in der Elektrotechnik
- $K$: Konditionszahl
- $L$: Untere Dreiecksmatrix/Normierte Matrix
- $m$: Mantisse (Darstellbarer Bereich der Maschinenzahl)
- $n$: Anzahl möglicher Stellen der Mantisse $m$
- $q$: Konvergenz-Ordnung
- $Q$: Orthogonal-Matrix in der $QR$-Zerlegung
- $R$: Obere Dreiecksmatrix
- $Rg(A)$: Der Rang der Matrix $A$ (Anzahl Zeilen $\not = 0$, die nach Gauss-Elimination übrig bleiben)
- $T$: Transformations-Matrix
- $x$: Darzustellender Wert
- $x_n$: Die $n$-te Approximation von $x$
- $\tilde{x}$: Approximation/Annäherung an $x$
- $\overline{x}$: Exaktes Ergebnis von $x$
- $x^{(k)}$: Die Annäherung von $x$ in der $k$-ten Iteration
- $\lambda$: Eigenwert einer Matrix
- $\rho(A)$: Spektral-Radius der Matrix $A$ (siehe Vektor-Iteration)
</div>