Orthogonale Matrizen :

anchored to [[104.00_anchor_math]]


Overview:

For this chapter we require some knowledge about skalarprodukt and norm/längen von Vektoren. Consider consulting [[math2_Vektorraum_Norm_Skalarprodukt]]

Anmerkungen: Mit Skalarprodukten möchten wir primär eine Abbildung betrachten, die von zwei Vektoren auf eine Zahl abbilden. Wir können aus dieser Eigenschaft dann manche Folgerungen schließen, welche auch in obigen Dokument vermerkt werden /wurden.

| Definition | Orthogonale Vektoren

Sei hier ein euklidischer Vektorraum -> das heißt wir können hier ein Skalarprodukt definieren und anwenden!

[!Definition] Orthogonale Vektoren was muss für diese gelten? Sei . Wir nennen sie jetzt orthogonal (senkrecht zueinander) oder auch falls ihr Skalarprodukt ist.

Als Spezialfall betrachten wir hier den Nullvektor, welcher orthogonal zu allen Vektoren ist.

[!Definition] Orthogonalsystem (OGS): Wir nennen eine Submenge dann Orthogonalsystem, wenn folgend gilt: ( wir können hierbei auch den Nullvektor) inkludieren, auch wenn man das nicht immer macht.

[!Definition] Orthonormalsystem (ONS) Als Erweiterung eines OGS können wir jetzt ein Orthonormalsystem betrachten. Hierbei gilt dann neben der Bedingungen für das OGS folglich noch: ( also jeder Vektor der Menge hat die Länge = 1 )

Neben dieser beiden Betrachtungen können wir jetzt noch eine weitere Struktur betrachten, welche wiederum auf den beiden, vorher definierten, Strukturen aufbaut:

[!Example] Orthonomralbasis (ONB)! Wissen wir, dass endlich dimensional ist, dann können wir eine Submenge als eine Orthonormalbasis (ONB) bezeichnen, wenn ein ONS ( Orthonormalsystem), sowie eine Basis von ist.

Bemerkung | ONS <-> Linear unabhängig:

Aus den obigen Betrachtungen können wir einige Folgerungen beziehen und feststellen.

Dass ein ONS entsprechend linear unabhängig ist können wir aus folgender Beschreibung beziehen: Wir wollen die Linearkombination des Nullvektors überprüfen und dadurch dann erkennen, dass diese Vektoren linear unabhängig sind:

[!Tip] Eigenschaften über die Vektoren der ONS: Wir haben gewisse Grundinformationen, die uns über die einzelnen Vektoren der ONS bekannt sind:

  • betrachten wir die einzelnen Vektoren untereinander, dann sind sie senkrecht zueinander, also ihre Skalarprodukt ist
  • Weiterhin sind ihre Beträge mit gesetzt und somit können wir dann anschließend folgern, dass sie linear unabhängig sind.

Dann wollen wir jetzt –> denn der Nullvektor ist senkrecht zu allen Vektoren! Diese können wir folgend umschreiben zu: Wodurch folgen muss, dass: . Diese Struktur können wir dann auch für jede andere Kombination aufbauen und betrachten.

[!Info] Linearkombination der weiteren Vektoren Das obige war quasi die erste Gleichung, die uns zeigte, wie definiert werden muss. Wir müssen jetzt weitere Gleichungen bzw. -viele weitere Gleichungen aufstellen und lösen, damit wir dann zeigen können, dass diese l.u. voneinander sind. Wir werden bei den anderen Linear-Kombinationen erkennen, dass hier immer an einer Stelle ein Skalarprodukt mit resultieren wird. Dadurch muss an dieser Stelle sein, weil wir sonst die Bedingungen nicht erfüllen können.

Damit sind sie also alle linear unabhängig


Vorbetrachtung:

Zu jedem Untervektorraum eines endlich dimensionalen euklidischen Vektorraum, kann man eine ONB (Orthonormalbasis) berechnen! Das heißt, das wir mit einer gegebenen Menge von Vektoren eine Menge finden möchten ( wir wissen, dass V ein ONS ist!), sodass sie beide eine Basis bilden. Dabei ist dann eine Menge von Vektoren, der Länge 1 –> also genormt. Wir wollen dann folgend resultieren: Idee um diese Struktur umsetzen zu können:

  1. Wir beginnen jetzt also mit einem Vektor ( also wir wählen uns einen Start-vektor). Mit welchem wir dann folgend die nächsten aufbauen werden. Folgend bauen wir jetzt aus den vorhandenen Vektoren : Wir werden später noch genauer bestimmen, wollen aber, dass durch diesen , also die beiden neuen Vektoren zueinander senkrecht sind.

Aus dieser Betrachtung bilden dann die beiden Vektoren eine OGS von . –> wir wollen aber eine ONB, also müssen wir die Vektoren noch normieren: -> dadurch werden wir die Vektoren durch ihre Länge teilen und somti auf die Länge reduzieren können!

Berechnen von

(wird in der Klausur gefragt sein!).

Wir möchten also, dass zwei Vektoren senkrecht zueinander sind. Dabei machen wir diese Berechnung davon abhängig, wie gewählt wird: Und aus dieser Betrachtung können wir jetzt einen Algorithmus betrachten bzw bestimmen.

Satz | Eigenwerte/Vektoren hermitescher Matrizen

Sei jetzt eine hermitesche, quadratische Matrix. Aus den Vorbetrachtungen gelten jetzt folgend:

1 | a besitzt nur reelle Eigenwerte

2 | b die Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal!

  • Wenn wir verschiedene Eigenvektoren zu verschiedenen Eigenwerten haben, dann müssen diese zueinander orthogonal sein!

Beweis | EV/EW hermitescher Matrizen:

Beweis 1 | a: Sei ein Eigenwert von mit Eigenvektor . Das heißt jetzt: Dann ist jetzt und weil ist, ist dann auch . Also ferner folgt dann auch , und somit muss reell sein!

Beweis 2 | b: Seien jetzt jeweils Eigenwerte von mit den Eigenvektoren Das heißt jetzt folgend: Aus der Aussage von 1 | a folgt jetzt ! und somit muss jetzt

Dann können wir jetzt folgend umformen: und somit folgt dann jetzt, dass orthogonal zueinander sind!

Korollar | [[#Satz Eigenwerte/Vektoren hermitescher Matrizen|Satz]] gilt ebenso für symmetrische Matrizen

Beispiel

Sei Mit den Eigenwerten sind die Eigenvektoren folgend:

nal

[!Example] Bilkompression Anwendung findet man mit diesen Eigenschaften etwa bei “Bildkompression mit der diskreten Kosnustransformation” https://de.wikipedia.org/wiki/Diskrete_Kosinustransformation

Satz | Orthogonalisierungsverfahren von Gram-Schmidt

–> [[104.05_orthogonalisierungsverfahren_gram_schmidt|Verfahren hier abgebildet]]


| Definition | Orthogonale Matrix

Betrachten wir eine Matrix -> wichtig sie ist quadratische!.

[!Definition] Orthogonale Matrix Wir nennen sie jetzt orthogonal, wenn gilt: dass ihre Spaltenvektoren eine ONB ( Orthonormalbasis) des bildet. –> also sie sind alle l.u. voneinander, genormt und orthogonal zueinander

Beispiel | :

Einheitsmatrizen: Betrachten wir ( hier ist die Determinante )! diese Matrix ist orthogonal, denn die Vektoren haben Länge 1, sind senkrecht zueinander und bilden eine ONB!

Betrachten wir jetzt weiter (was einer Rotations-matrix entspricht). Wir können jetzt auch für diese Vektoren berechnen, ob sie orthogonal zueinander stehen: ( gemäß der Additionstheoreme!) und weiter: daher bilden entsprechend eine ONS und sind damit linear unabhängig. Weiterhin bilden sie auch eine ONB! ( auch hier sehen wir, dass die Determinante )

Wir können noch eine weitere betrachten, welche die Spiegelung an der ersten Winkelhalbierenden ( also die Achse gezogen 45grad zwischen X / Y ) beschreibt:

Satz | Eigenschaften von orthogonalen Matrizen:

Aus der obigen Definition können diverse Folgerungen gezogen werden, die uns bei weiteren Betrachtungen helfen können.

[!Definition] Eigenschaften von orthogonalen Matrizen Sei hierfür: eine orthogonale Matrix Es folgen die Eigenschaften:

1. –> wenn wir die Matrix transponieren und dann mit sich selbst multiplizieren, dann werden wir die Einheitsmatrix erhalten!

2. ist invertierbar, indem wir –> also die transponierte Matrix entspricht dem Inversen der Matrix! Damit können wir folgende Gleichung einfach lösen:

3. j –> also die Länge eines Vektors wird durch die Multiplikation mit der Matrix nicht verändert –> also die Änderung ( Spiegelung/Drehung etc) findet statt, aber ändert die Länge des Vektors nicht!

4. –> Die Determinante ist immer 1!

5. hat nur Eigenwerte mit Betrag 1!

Beweise der einzelnen Aussagen:

[!Definition] Beweisen der Eigenschaften für orthogonale Matrizen: Wir möchten folgend die 5 erhaltenen Eigenschaften von orthogonalen Matrizen bestimmen und notieren.

Betrachten wir 1.: Seien hierfür Spalten von einer Matrix Sei orthogonal bilden eine ONB! [[#Definition = Orthogonale Matrix|Definition]] und weiter folgt: und damit dann: !

[!Tip] Intuition: Das wird ersichtlich, weil wir so immer den transponierten Vektor mit miteinander multiplizieren/addieren –> Quasi die Anwendung des Skalarproduktes.

Da das Skalarprodukt des Vektors ist, folgt, dass nur dann ein Eintrag ist, wenn der Vektor selbst mit sich multipliziert wird Sonst sind alle Vektoren voneinander l.u. und orthogonal, wodurch das Skalarprodukt ist –> und wir somit die Matrix erhalten werden!

2. wird aus 1. folgen –> denn auch hier gilt, dass die Multiplikation einer Matrix mit ihrem Inversen der Einheitsmatrix entsprechen wird.

3. können wir entsprechend nachrechnen: ( wenn wir hier die Norm meinen, dann berechnen wir sie immer unter Anwendung des Skalarproduktes bzw durch dessen Definition)

Wir wollen noch 4. zeigen: ( also die Determinante ist immer 1 oder -1!)

Und jetzt noch die Betrachtung der Eigenvektoren, also 5.: Sei , also ein Eigenwert, das heißt also mit Wenn das gilt, folgt jetzt


Bemerkung - Orthogonale Gruppen |

Wir möchten jetzt orthogonale Gruppen definieren, und beschreiben damit:

[!Definition] Orthogonale Gruppen: Die Menge aller quadr. Matrizen, die orthogonal sind. for a definition of groups [[math2_gruppen|Gruppen]]

Weiterhin möchten wir noch die spezielle Orthogonale Gruppe:

[!Definition] spezielle Orthogonale Gruppe: Mit dieser Orthogonalen Gruppe fassen wir alle orthogonale Matrizen zusammen, die haben!

Wir beschreiben diese Gruppe folgend:

-> Weiterhin sind diese Untergruppen der allgemeinen linearen Gruppe


Bemerkung - Orthogonale Abbildungen:

Sei allgemeiner ein euklidischer Vektorraum ( also mit Skalarprodukt und Norm) -> und weiterhin eine ONB! von . Ferner noch eine lineare Abbildung.

Wir nennen jetzt eine orthogonale Abbildung, wenn folgt: –> also die Abbildungsmatrix hat all die notwendigen Eigenschaften, die wir zuvor beschrieben haben folgend möchten wir jetzt noch einen Vektor finden, welcher die Basis von in

[!Important] Übernahme der Eigenschaften für Abbildungen Die obig definierten Eigenschaften gelten jetzt sowohl für:

  • die Abbildungsmatrix
  • als auch für also die lineare Abbildung selbst

Satz | orthogonale Abbildung im 2-dim eukldischen

Sei ein 2-dimensionaler euklidischer(also mit Skalarprodukt!) Vektorraum. Weiter sagen wir, dass eine ONB von bildet und weiter Das heißt dann, dass –> also wir beschreiben mit dieser ONB weiterhin auch die Abbildungsmatrix für die lineare Abbildung !

Um das zu zeigen: müssen wir zwei Fälle betrachten:

1. , dann folgt für ein Beispiel: für ein Dann ist aus der ersten Betrachtung heraus eine Rotation um den Winkel um einen bestimmten Ursprung.

2. dann folgt jetzt: für ein

[!Important] Existenz einer ONB! Es existiert jetzt eine ONB dieser Matrix, bezeichnet mit von . Sodass jetzt folgt

Wir sehen jetzt hier: ist also eine Spiegelung an der Achse

Beweis

Sei . Wir setzen voraus, dass orthogonal ist. Es gilt also Wir können also folgern: Wir müssen hier also entsprechend wählen, damit die Matrix resultiert. Wenn wir das betrachten, sollten wir erkennen können, dass wir hier die Additionstheoreme gebrauchen können.

s folgt dann

Dann folgt: und somit muss jetzt sein. –> also ein ganzzahliges Vielfache von

Folgend müssen wir jetzt zwei Fälle betrachten, die eintreten könnten. Spezifisch sind sie abhängig von

Fall 1: –> Tritt dieser Fall ein können wir folgern, dass und weiter auch und somit können wir eine Matrix der Form konstruiere, für die dann folgt! (wir wissen, dass die Determinante aber auch sein kann und wollen das im zweiten Fall abdecken).

Fall 2: –> In diesem Fall können wir dann folgend bestimmen: und weiter auch Wir resultieren hier mit der Matrx beschrieben durch: und hier folgt dann ( also der zweite Fall, der eintreten darf!)

Wir können jetzt das charakteristische Polynom ( Zur bestimmung der Eigenwerte) aufstellen. Es berechnet sich als und somit sind die Eigenwerte von genau 1 und -1 –> wie wir es konstruiert haben!.
Die dazugehörigen Eigenvektoren seien dann und wir können annehmen, dass beide der Norm 1 sind. –> wenn nicht, dann können wir sie noch normieren!

Folgend gelte dann jetzt noch und daraus dann Es folgt hieraus dann , also die beiden Vektoren bilden eine ONB und die Abbildungsmatrix ist dann folgend:

Bemerkung | Existenz einer ONB für 3-dim VR

Betrachte jetzt als einen 3-dimensionaler euklidischen Vektorraum. Weiterh ist eine orthogonale Abbildung. Dann können wir jetzt folgende Fälle betrachten:

Fall 1: Es existiert eine ONB , sodass folgt: Wir sehen also, dass man wieder eine ähnliche Matrize betrachtet, diese aber größer ist und die freien Räume mit 0 füllt! –> außer auf der Diagonalen! In diesem Fall ist dann die Determinante und beschreibt eine Rotation um parallel zur Ebene , wobei der Vektor die Drehachse darstellt!

Fall 2: Es existiert eine ONB , sodass dann die Matrix folgend bestimmt wird: und daraus folgt, dass die Determinante ist. Hierbei ist dann eine Drehspiegelung ( also Rotation um die Achse von , sowie eine Spiegelung um )

Spezialfälle: Es gibt noch drei Spezialfälle die man betrachten könnte:

Was einer Achsen-Spiegelung an entspricht!.

was dann einer Ebenen-Spiegelung an entspricht.

und was eine Punktspiegelung am Nullpunkt ist!

Revisited | Additionstheoreme:

Wir können die Verkettung von sin / cos in folgenden Strukturen ersetzen:

Affine Abbildungen | homogene Koordinaten

1. Für geometrische Anwendungen reichen lineare Abbildungen oft nicht aus, da man beispielsweise bei einer Translation ( Verschiebung um einen Vektor ) Probleme erhält.

Diese Translation beschreibt man etwa mit: Ist der verschiebende Vektor kein Nullvektor, dann ist die Abbildung nicht linear. Denn die Eigenschaften gelten dann nicht mehr!

[!Definition] 2. Affine Abbildung: Wir nennen eine Komposition einer linearen Abbildung mit einer Translation dann: Affine Abbildung.

Formal beschrieben folgt dann:

Das heißt jetzt also, dass wir zuerst von unserem Ursprung linear abbilden und anschließend den Vektor, um den wir verschieben wollten, hinzufügen. Dadurch können wir diverse Informationen der Abbildung durch die Grundeigenschaft einer linearen Abbildung entnehmen.

[!Definition] 3. Affine Abbildungen bilden einen nicht unbedingt auf einen ab. Sondern auf einen affinen der folgenden Form Das heißt dann etwa, dass wir auf eine Gerade oder Ebene abbilden können –> diese müssen nicht zwingend in abbilden –> Und dadurch sind sie kein direkter Untervektorraum, weil der Nullvektor fehlen darf

Weiter können wir noch auf -eukldiscihe VR aufteilen:

[!Definition] Affine Abbildungen auf -eukl. VR nicht durch Matriz darstellbar. Wenn wir eine affine Abbildung in einem -dimensionalen euklidischen Vektorraum betrachten, dann können wir diesen nicht durch eine -Matrix beschreiben!

Dennoch gibt es hier Beschreibungen durch Matrizen der Form Wir benennen das jetzt mit homogene Koordinaten –> welche man etwa bei der Robotik benötigt.

[!Important] Visualisierung der homogenen Koordinaten: Also wir haben die Matrix welche dann mit dem Vektor, um den wir strecken wollen , multipliziert wird. –> Dadurch wird die Gesamtmatrix um 1 vergrößert, also in der höhe und breite. Dadurch wird unten eine 0 Zeile eingefügt, die bis zum Vektor auffüllt. ![[Pasted image 20231114130640.png]]

Definition | symmetrische Matrizen

Sei eine Matrix. Wir nennen sie jetzt symmetrisch, wenn folgendes gilt:

[!Definition] Symmetrisch

analog können wir selbiges auch noch in betrachten: Wir nennen eine Matrize, die diesen Eigenschaften in entspricht dann hermitesch [[104.07_matrizen_in_C]]


| Satz (3.25) | ortho. diag. Matrix –> symmetrisch

Eine orthogonale, diagonaliserbare Matrix ist symmetrisch.

Beweis der Aussage:

Sei jetzt , wie in der vorherigen Definition

Aus obiger Aussage können wir jetzt noch weitere Eigenschaften folgern, die relativ grundlegend für die Arbeit mit Matrizen und diverser Anwendungsgebiete dieser sind.

| Orthogonal Diagonalisierbare Matrizen |

Wir möchten jetzt schauen, wie wir eine Matrix so umformen können, dass sie in der Form geschrieben werden kann.

Sei hierbei eine Matrix . Wir nennen sie jetzt orthogonal diagonalisierbar, wenn folgend gilt:

Es existiert eine orthogonale Matrix: , und auch eine Diagonalmatrix , mit Daraus folgt dann die folgende Darstellung der Matrix: und wir haben somit eine orthogonale Matrize bestimmen können.

[!Important] Gleiches vorgehen, wie bei Diagonalisierung von Matrizen! Dieser Operation ist gleich der Diagonalisierung einer normalen Matrix [[math2_Eigenvektoren#Diagonalisierbarkeit|Diagonalisierbarkeit]] Das heißt wir müssen auch hier:

  1. charakteristisches Polynome bestimmen
  2. Nullstellen finden
  3. sind dann die Eigenwerte
  4. mit den Eigenwerten die Eigenvektoren / Eigenräume bestimmen
  5. (zusätzlich hier) jetzt die Vektoren normalisieren und eine ONB bilden!
  6. Die Diagonalmatrix mit den Eigenwerten füllen
  7. Die orthogonale/unitäre Matrix mit den normalisierten Eigenvektoren füllen

Betrachtung von Matrizen in :

Ferner möchten wir diverse Eigenschaften von orthogonalen Matrizen in Räumen, wie auch in den komplexen Zahlen einführen und betrachten können..

Siehe dazu: [[104.07_matrizen_in_C]]


Definition | unitäre Matrix |

Definition dazu [[104.07_matrizen_in_C|hier]]

| Eigenschaften unitärer Matrizen |

Definitionen zu finden [[104.07_matrizen_in_C#Eigenschaften unitäre Matrizen|hier]]

Definition | hermitesche Matrix |

Definition dazu [[104.07_matrizen_in_C#Definition Hermitesche Matrix|hier]]

Satz | Eigenwerte hermitescher Matrizen |

Definition dazu [[104.07_matrizen_in_C#Satz Eigenwerte/Vektoren hermitescher Matrizen|hier]]


Further Resources:

Weiterführende Themen können sein:

[!Tip] Further resources: Betrachtungen dafür etwa: https://de.wikipedia.org/wiki/Klassische_Probleme_der_antiken_Mathematik