Eigenwerte und Eigenvektoren :
specific part of [[math2_Matrizen_Grundlage]] broad part of [[103.00_anchor_math]]
Wir möchten nun bestimmte Vektoren und Werte betrachten, die unter Umständen eine Matrix sehr spezifisch bestimmen oder darstellen können. Eigenvektoren sind dabei spezifische Vektoren, welche wir zu einer Matrix multiplizieren können und dabei beispielsweise den Vektor selber nicht stark verändern.
Weiterführende Links:
- https://en.wikipedia.org/wiki/Eigenvalues_and_eigenvectors
Definition Eigenwert / Eigenvektor :
Sei eine Matrix. Wir nennen jetzt einen Skalar einen Eigenwert von , wenn es einen Vektor gibt, (welcher nicht trivial, also ist), sodass dan ngilt: .
[!Bemerkung] Wir haben also eine Multiplikation eines Vektors mit einer gegebenen Matrix und wir können dann ferner betrachten, dass nach der Multiplikation der Vektor gleich, aber mit einem Skalar multipliziert resultiert. Also weiter betrachtet heißt das, dass wir den Vektor durch die Matrix gestreckt,verkürzt, verschoben haben um diesen Eigenwert, diesen Skalar.
Ferner nennen wir dann jeden Vektor welcher diese Eigenschaft erfüllt, einen Eigenvektor von . Es folgt die Eigenschaft:
-> Also wir können damit die Menge aller Eigenvektoren bestimmen, die die Eigenschaft aufweisen (dass sie nicht grundlegend verändert, aber nur gestreckt/kürzt werden) und dabei Abhängig von dem gegebenen Eigenwert sind Wir wissen nun auch, dass der Nullvektor immer enthalten ist, er ist dabei auch trivial
Begriffsklärungen :
eigenwert
Wir nennen irgendeinen Skalar , einen Eigenwert unserer Matrix, wenn ein Vektro , sodass wir dann die folgende Gleichung lösen können : Intuitiv ist die Multiplikation mit der gegebenen Matrix also einfach gleich, wie die Multiplikation mit einem Skalar, spezifisch dem Eigenwert, den wir erhalten können. Dabei kann es multiple Eigenwerte einer Matrix geben und dieser ist nicht immer eindeutig bestimmt
In Abhängigkeit mit der Determinante [[math2_Determinanten]] lässt sich folgend ein Eigenwert berechnen: Möchten wir jetzt dieses Problem lösen, können wir es als LGS betrachten und dann auflösen: Berechnen des LGS:
[!Anmerkung] Wir können dies folgend vereinfachen, bzw wissen wir schon, dass die Subtraktion von Matrizen einfach jeden Eintrag miteinander subtrahiert. Wir können also folgend vereinfachen:
#nachtragen #TODO BEISPIEL FÜR BERECHNUNG AUS PUE11 ->
Eigenvektor abhängig Determinante:
[!Satz] Sei eine Matrix. Dann gilt: ist Eigenvektor von Also sofern wir einen Eigenvektor von einer Matrix gefunden haben, ist dann folgend die Determinante der Matrix subtrahiert mit den Eigenwerten Null. Wir nennen weiter die zu gehörenden Eigenvektoren, welche die nicht triviale Lösung des folgenden LGS bilden also weiter auch:
Beweis dafür:
Für einen Eigenwert und ein Eigenvektor von gilt dann: Wir können da also draus folgern, dass gilt: ist ein Eigenwert von und hat noch weitere Lösungen als (der trivialen-Lösung). Das ist dann äquivalent : und auch Der Rang muss also definitiv kleiner werden, als die Menge von Variablen, die wir in unserem LGS haben ist nicht invertierbar Ein Vektor ist also genau dann ein Eigenvektor von , wenn und
Wir können sehen, dass wir dieses Problem auch mit einem Polynom betrachten können, wo dann die Nullstellen dessen die Eigenwerte der Matrize sein werden!
Charakteristisches Polynom :
Für eine Matrix nennen wir das Charakteristische Polynom in Abhängigkeit der Matrix . Also einfach der Lösungsraum für die Matrix:
Beispiel:
Sei Folgend ist das charakteristische Polynom dann: Also -> wir wissen, dass es zwei Lösungen gibt, denn wir haben ein quadratisches Polynom gegeben.
Wir wollen jetzt die Eigenvektoren berechnen : Indem wir zuerst setzen: Eine mögliche Lösung für besagte Gleichung wäre . Wir haben hier jetzt die Lösung bzw. einen Eigenvektor unter Betrachtung der Eigenwerte berechnet.
Sofern wir jetzt noch den Eigenraum bestimmen möchten, müssen wir anschließend noch einen passenden Raum aufstellen: Dafür: berechnen wir den Eigenraum zu . Also oder auch
Wir möchten jetzt noch für berechnen: Wir können sehen, dass beide Spalten linear abhängig sind und somit nur noch eine Gleichung lösen: Wir möçhten aber eine spezifische Lösung betrachten: etwa es gilt dann
Anwendungsgebiete:
Berechnen von Matrixpotenzen:
Wir können mittels der Berechnung von charakteristischen Polynomen bzw. durch die Berechnung von Eigenvektoren und Eigenwerten einfacher berechnen. Wenn wir also berechnen wollen, können wir dies auch vereinfacht berechnen. Betrachten wir dabei die vorherige Matrize aus dem [[#Beispiel]]:
- Dafür bilden wir Matrix die zu jedem Eigenwert von jeden Eigenvektor also Spalte enthält. Also für unser Beispiel:
Wir brauchen ferner die Inverse dieser :
[!Folgerung] Und damit dann: also am Beispiel:
Also in unserem Beispiel wäre das dann am Ende: $$ S$\cdot D^{2023}\cdot S^{-1} = \begin{pmatrix} 1 & 1 \ 2 & 1 \end{pmatrix}\cdot \begin{pmatrix}3^{2023} & 0 \ 0 & 2^{2023} \end{pmatrix} \cdot \begin{pmatrix} -1 & 1 \ 2 & -1 \end{pmatrix}$$ Unter Abhängigkeit von müssten wir jetzt noch weiter umformen / ausrechnen, jedoch bei solchen finiten Ausdrücken nicht zwingend.
Weitere Anwendungsgebiete:
- Eigenschwindungen von Brücken etc
- Google Page-Rang algorithmus [[111.99_algo_googlePageRank]]
- Eigenfaces -> procedural generation of unique faces with the use of Eigenvectors
Berechnen der Eigenwerte einer Matrix
Für eine Matrix ist folgend das charakteristische Polynom: ein Polynom vom Grad -> welches aus der Definition der Determinante folgt. Wir können für das Polynom eine Nullstelle finden. Diese Nullstellen des Polynoms sind dann genau die Eigenwerte von .
[!Hinweis] Menge von Eigenwerten je nach Körper Ist , so besitzt also höchstens Eigenwerte, für besitzt genau . Weiterhin müssen diese n verschiedenen Eigenwerte nicht notwendig verschieden sein.
Bemerkung - algebraische Vielfachheit:
Die Anzahl des Auftretens eines Eigenwertes als eine Nullstelle des charakteristischen Polynoms in nennt man die algebraische Vielfachheit von .
Beispiel:
Betrachten wir folgende Matrix: Wir möchten davon jetzt das charakteristische Polynom betrachten und so die Eigenwerte bestimmen: $$A = \begin{pmatrix} 2 & 3 & 0 \ 0 & 2 & -1 \ 0 & 0 & 1 \end{pmatrix} \Longrightarrow \det(\begin{pmatrix} 2-\lambda & 3 & 0 \ 0 & 2-\lambda & -1 \ 0 & 0 & 1-\lambda \end{pmatrix}) = (2-\lambda)\cdot$(2-\lambda) \cdot (1-\lambda)$$ wir sehen dabei direkt die Nulstellen und somit Eigenwerte: ,
[!Hinweis] Evaluieren dabei tritt zweimal auf und wir sagen dazu dann, dass dieser Eigenvektor eine algebraische VIelfachheit von hat. und weiter hat eine algebraische Vielfachheit von 1
[!tip] Zerlegung einer Matrix Sofern wir eine Matrix haben, und weiter noch Eigenwert: -> Aber nur n-1 Eigenvektoren, dann können wir die Matrix nicht diagonalisieren -> Aber haben auch n Eigenvektoren, dann können wir die Matrix diagonalisieren
Diagonalisierbarkeit:
Eine Matrix heißt / nennen wir diagonalisierbar, wenn wir diese zerlegen können. Bzw ist sie diagonalisierbar, wenn sie folgende Eigenschaften aufweist:
- ist invertierbar -> also , wobei S das Inverse der Matrix ist!
- denn so kann gelten Dabei ist die Struktur folgend: Also ist eine Diagonalmatrix, deren Einträge jeweils auf der Diagonale genau den Eigenwerten von entsprechen.
[!tip] Bemerkung:
Die Darstellung einer Matrix in der Form eines Produktes ist unter Anderem zum [[#Berechnen von Matrixpotenzen]] hilfreich.
Spektralsatz:
Motivation für den Spektralsatz: Ferner die Frage: Ist jede quadratische Matrix, diagonalisierbar?
- Nein, denn wir brauchen Charakteristika bezüglich der linear abhängigen Vektoren
[!tip] Spektralsatz:
- ist diagonalisierbar Es gibt linear unabhängige Eigenvektoren von .
- Besitzt n verschiedene Eigenwerte so ist diagonalisierbar.
Beweis
Wir können uns dabei das Beispiel aus [[#Berechnen von Matrixpotenzen]] nochmals anschauen: ist diagonalisierbar, also folgt die invertierbar ist mit Sei dafür dann: wobei den Spalten entspricht. Für die -te Spalte von gilt dann folgend wir schließen daraus dann, dass ein Eigenvektor zum Eigenwert von ist.
Wir können so also relativ einfach die Eigenvektoren zu gewissen Eigenwerten entnehmen / betrachten.
[!Abstract] Folgerung Es gilt also, wie wir zuvor schon gezeigt haben: ist invertierbar die Spalten sind linear unabhängig.
diagonalisierbare Matrizen ohne verschiedene Eigenwerte:
Wir wir aus der Implikation im [[#Spektralsatz]] schon erkennen können, gibt es eben auch diagonalisierbare Matrizen, welche nicht n verschiedene Eigenwerte aufweisen:
Betrachten wir als Beispiel dafür: spezifisch möchten wir betrachten, denn sie ist bereits in Diagonalform vorliegend Sofern wir da jetzt das charakteristische Polynom berechnen möchten, folgt: und ist ein n-facher Eigenwert, dabei sind die Eigenvektoren die kanonischen Einheitsvektoren, also .
geometrische Vielfachheit:
[!Abstract] Definition Ist ein Eigenwert von , so heißt jetzt die geometrische Vielfachheit von Wichtig: sie muss nicht mit der algebraischen Vielfachheit übereinstimmen, also kann gelten:
Es gilt weiterhin noch für: diagonalisierbar für jeden Eigenwert von A, stimmen die algebraische und geometrische Vielfachheit übereinstimmen
Beispiel:
Betrachten wir nochmals die Einheitsmatrix : Für ist der Eigenwert mit der algebraischen Vielfachheit . gleichzeitig ist da dann auch die -> was der Geometrischen Vielfachheit entspricht. (also wenn wir sie betrachten, dann streckt diese Matrix alle Vektoren des -Vektorraumes, um den Faktor 1). Sie sind also Eigenvektoren. und somit folgt ist diagonalisierbar.