Compare commits

..

No commits in common. "e6e692073148b654587f5869bfee4b1a9e93b4fb" and "3bfb6d24009759a656602b1f84d3dec434e1cb7b" have entirely different histories.

View file

@ -46,6 +46,7 @@
- [Fehlerabschätzung](#fehlerabschätzung) - [Fehlerabschätzung](#fehlerabschätzung)
- [Formelbuchstaben zu Nullstellenproblem](#formelbuchstaben-zu-nullstellenproblem) - [Formelbuchstaben zu Nullstellenproblem](#formelbuchstaben-zu-nullstellenproblem)
- [Lineare Gleichungssysteme](#lineare-gleichungssysteme) - [Lineare Gleichungssysteme](#lineare-gleichungssysteme)
- [Lernziele](#lernziele)
- [Eigenschaften](#eigenschaften) - [Eigenschaften](#eigenschaften)
- [Dreiecks-Matrizen](#dreiecks-matrizen) - [Dreiecks-Matrizen](#dreiecks-matrizen)
- [Der Gauss-Algorithmus](#der-gauss-algorithmus) - [Der Gauss-Algorithmus](#der-gauss-algorithmus)
@ -65,7 +66,6 @@
- [Konvergenz](#konvergenz) - [Konvergenz](#konvergenz)
- [Komplexe Zahlen](#komplexe-zahlen) - [Komplexe Zahlen](#komplexe-zahlen)
- [Rechen-Regeln](#rechen-regeln) - [Rechen-Regeln](#rechen-regeln)
- [Eigenwerte und Eigenvektoren](#eigenwerte-und-eigenvektoren)
- [Formelbuchstaben](#formelbuchstaben) - [Formelbuchstaben](#formelbuchstaben)
- [Glossar](#glossar) - [Glossar](#glossar)
@ -446,6 +446,16 @@ Vorgang:
</div> </div>
## Lineare Gleichungssysteme ## Lineare Gleichungssysteme
### Lernziele
- Sie können...
- [ ] Lineare Gleichungssysteme aufstellen
- [ ] den Gauss-Algorithmus mit und ohne Pivotisierung
- [ ] die LR-Zerlegung
- [ ] die QR-Zerlegung
- [ ] Jacobi-Verfahren (in Python)
- [ ] Gauss-Seidel-Verfahren (in Python)
- [ ] Fehlerabschätzungen
- [ ] Eigenwerte und Eigenvektoren von Matrizen berechnen
<div class="letters"> <div class="letters">
@ -1378,114 +1388,6 @@ Visualisierung des Ziehens der $6$-ten Wurzel einer komplexen Zahl $z$:
![](RootComplexNumber.png) ![](RootComplexNumber.png)
## Eigenwerte und Eigenvektoren
Für Matrizen $A$ gibt es Vektoren $x$ und Faktoren $\lambda$, für die gilt:
$$A \cdot x = \lambda \cdot x$$
- $x$-Werte, für die das zutrifft, nennen sich **Eigenvektoren** von $A$
- $\lambda$-Werte, für die das zutrifft, nennen sich **Eigenwerte** von $A$
<div class="formula">
***Eigenwerte und Eigenvektoren:***
Falls für eine gegebene Matrix $A$, einen beliebigen Vektor $x \not = 0$ und einen beliebigen Wert $\lambda$ folgendes zutrifft:
$$A \cdot x = \lambda \cdot x$$
- $x$ ist ein **Eigenvektor** von $A$
- $\lambda$ ist ein **Eigenwert** von $A$
</div>
In manchen Fällen müssen für die Berechnung von Eigenwerten und Eigenvektoren komplexe Vektoren $z$ normiert werden.
Dies funktioniert folgendermassen:
<div class="formula">
***Normierung komplexer Vektoren:***
$$x = z \cdot \frac{1}{|z|} =
\left(
\begin{matrix}
z_1 \\
\vdots \\
z_n
\end{matrix}
\right) \cdot
\frac{1}{\sqrt{z_1 \cdot z_1^* + \dots + z_n \cdot z_n^*}}$$
</div>
<div class="letters">
- $z$: Komplexer Vektor
- $z_n$: $n$-te Komponente des Vektors $z$
- $x$: Normierter Vektor $z$
</div>
<div class="formula">
***Eigenschaften von Eigenwerten:***
$\lambda$ ist ein Eigenwert von $A$, fals folgendes gilt:
$$det(A - \lambda \cdot I_n) = 0$$
</div>
<div class="formula">
***Eigenwerten und die Spur & Determinante von Matrizen:***
- Die Determinante einer Matrix $A$ ist das Produkt aller Eigenwerte.
- Die Spur (trace) - also die Summe aller Diagonalelemente - ist die Summe aller Eigenwerte
$$det(A) = \lambda_1 \cdot \lambda_2 \dots \lambda_n$$
$$trace(A) = a_{11} + a_{22} + \dots + a_{nn} = \lambda_1 + \lambda_2 + \dots + \lambda_n$$
- Wenn $\lambda$ ein Eigenwert von $A$ ist, so ist der Kehrwert $\frac{1}{\lambda}$ ein Eigenwert der inversen Matrix $A^{-1}$
</div>
<div class="formula">
- Die Vielfachheit, mit der $\lambda$ in der Determinante auftritt nennt sich **algebraische Vielfachheit** von $\lambda$
- Das **Spektrum** $\sigma(A)$ ist die Menge aller Eigenwerte von $A$
</div>
<div class="formula">
***Eigenwerte in speziellen Matrizen:***
Für Diagonal-Matrizen und Dreiecks-Matrizen gilt:
- Die Eigenwerte entsprechen den Diagonal-Elementen.
</div>
<div class="formula">
***Eigenraum:***
Als Eigenraum bezeichnet man eine beliebige Anzahl Vektoren, die alle für dein Eigenwert $\lambda$ gelten.
Indem man diese Vektoren kombiniert, lassen sich beliebig viele neue Eigenvektoren zum Eigenwert $\lambda$ bestimmen.
Für den Eigenwert $\lambda$ von $A$ bilden Eigenvektoren zum Eigenwert $\lambda$ und der Nullvektor $0$ einen **Eigenraum** der Form $\mathbb{C}^n$
- Die Dimension des Eigenraumes von $\lambda$ bestimmt sich durch folgende Formel:
$$n - Rg(A - \lambda \cdot I_n)$$
Das Ergebnis nennt sich **geometrische Vielfachheit** und entspricht der Anzahl unabhängiger Eigenvektoren zum Eigenwert $\lambda$.
- Die geometrische Vielfachheit ist kleiner oder gleich der **algebraischen Vielfachheit**
</div>
<div class="letters">
- $A$: Eine beliebige Matrix
- $x$: Eigenvektor einer Matrix $A$
- $\lambda$: Eigenwert einer Matrix $A$
</div>
## Formelbuchstaben ## Formelbuchstaben
<div class="letters"> <div class="letters">
@ -1508,12 +1410,10 @@ Für den Eigenwert $\lambda$ von $A$ bilden Eigenvektoren zum Eigenwert $\lambda
- $q$: Konvergenz-Ordnung - $q$: Konvergenz-Ordnung
- $Q$: Orthogonal-Matrix in der $QR$-Zerlegung - $Q$: Orthogonal-Matrix in der $QR$-Zerlegung
- $R$: Obere Dreiecksmatrix - $R$: Obere Dreiecksmatrix
- $Rg(A)$: Der Rang der Matrix $A$ (Anzahl Zeilen $\not = 0$, die nach Gauss-Elimination übrig bleiben)
- $x$: Darzustellender Wert - $x$: Darzustellender Wert
- $x_n$: Die $n$-te Approximation von $x$ - $x_n$: Die $n$-te Approximation von $x$
- $\tilde{x}$: Approximation/Annäherung an $x$ - $\tilde{x}$: Approximation/Annäherung an $x$
- $x^{(k)}$: Die Annäherung von $x$ in der $k$-ten Iteration - $x^{(k)}$: Die Annäherung von $x$ in der $k$-ten Iteration
- $\lambda$: Eigenwert einer Matrix
</div> </div>