cards-deck: university::math2
Lineare Algebra : Vektorräume ::
^1684967015941
Definition K-Vektorräume:
Gegeben sei eine Menge . “Elemente können wir mit Vektoren oder Matrizen bezeichnen”“, deren Elemente wir Vektoren nennen, gezeichnet mit kleinen lateinischen Buchstaben in Physik wäre es beispielsweise
Weiterhin nennen wir einen Körper und nennen seine Elemente Skalare. Notiert werden sie mit kleinen griechischen Buchstaben . “Definieren quasi Zahlen…” Weiterhin setzen wir als das Einselement des Körpers.
Wir definieren diverse Rechenoperationen:
Verknüpfung : Vektoraddition. beschreibt dann die Addition, wobei man von jedem Vektor die passenden Zeichen einfach miteinander addiert! Verknüpfung : also eine Multiplikation ist nur mit einem Skalar möglich
Eigenschaften im -Vektorraum #card
Wir beschreiben jetzt: V mit dem Körper den K-Vektorraum oder auch VR über K bezeichnet. Ferner nehmen wir folgende Eigenschaften auf:
- ist eine abelsche Gruppe
- Das neutrale Element heißt Nullvektor, wobei er mit dargestellt wird.
- Das Inverse zu bezeichnen wir dann mit denn so
- weist spezifische Pardigmen auf:
- Assoziativgesetz: Wobei die Multiplikation von eine Multiplikation in K ist und sonst eine Skalarmultiplikation!
- 1.Distributivgesetz:
- 2.Distributivgesetz:
- Einselement in K: –> neutrales Element des Körpers! Meisten definieren wir ^1684967015953
Beispiele
Sei ein beliebiger Körper und V der Vektorraum:
WIr schreiben dann also die Spaltenvektoren mit Einträgen aus:
für ein beliebiges , und weiterhin
Wir schreiben dann: und und wir können die multiplikation mit einem Skalar auch geometrisch betrachten, wo dann einfach die der Vektor verlängert wird und so weiter reicht..
Wir kennen diverse Vektorräume, wie Weiterhin können wir diverse Körper für die Skalare definieren:
Betrachten wir dann hat dieser Vektorraum 4 Elemente: Betrachten wir die folgende Addition
Das heißt, dass wir in jedem Vektorraum immer die Elemente pro Zeile betrachten können und dann schauen müssen, ob die Addition dieser immernoch im Raum resultieren würde
Betrachte ferner: Sei und
Beispiele für =Vektorräume:
trivialer Vektorraum
Betrachten wir dafür den trivialen VektorraumL . Sei dabei der Körper beliebig. Wir definieren dann:
-Vektorraum:
R ist ein . Dabei sind Vektoren die reellen Zahlen. und Skalare ebenfalls reellle Zahlen.
Funktionenräume:
Sei eine Menge. Weiter bilden wir Also eine Menge von Funktionen, die von der gegebenen Menge auf den gegebenen Körper abbildet
Betrachten wir als Beispiel die Menge der auf M definierten Funktionen mit Werten aus . Wir schreiben: : sei dann: die Addition: die Multiplikation mit einer Konstanten:
Ferner ist dann mit ein Vektorraum: Denn wir können den Nullvektor folgend definieren Also ist die Nullfunktion
Rechnen in Vektorräumen: #card
Sei ein -Vektorraum, und weiter . Dann gelten folgende Aussagen:
- –> Multiplikation mit 0 impliziert / resultiert mit dem Nullvektor in der Multiplikation.
- -> Nullvektor bei Multiplikation von Konstante aus K.
- -> Skalar (-1) multipliziert mit Vektor ist gleich dem Inverse des gegebenen Vektors
- Beweisen der Aussagen:
- gelte folgend: . Weiter gilt dann daraus: –> wir können 0 so erweitern, dass es (0+0) ergibt. mit dieser Struktur können wir dann mittels Distributivgesetz erweitern. -> Assoziativgesetz –> wir haben jetz das Inverse zu gefunden und können reduzieren.
- Folgt dem gleichen Prinzip ==übung== Starten mit ^1684967015961 –> kann dann passend reduziert werden!
- wir starten mit A ^1684967015969
Untervektorräume :
Ferner möchten wir Teilmengen von Vektorräumen betrachten, welche mittels diverser Eigenschaften auch wieder Vektorräume bilden können: [[math2_Vektorraum_UV]]
Konstruktion von Vektorräumen:
Im folgenden sei immer mit ein Vektorraum:
Linearkombinationen - lineare Unabhängigkeit:
-
Seien eine Menge von Vektoren aus dem Vektorraum Ein Vektor heißt nun eine Linearkombination (LK) von wenn es Skalare gibt, sodass man den Vektor in folgender Form darstellen kann: . auch geschrieben als die Summe: _unter Verwendung aller Vektoren, die wir aus der Menge entnahmen, um dann einen Raum zu bilden können wir mittels Skalare - also einer beliebigen Vervielfachung der Vektoren, einen beliebigen Vektor generieren _
-
heißen jetzt linear abhängig(l.a) voneinander, wenn es eine Linearkombination gibt, die den Nullvektor bildet. Also wir die Vektoren passend kombinieren können, sodass sie sich gegenseitig eliminieren und neutralisieren. WIchtig ist, dass wir die triviale Lösung von nicht inkludieren!
Sofern wir eine solche Kombination nicht finden können, :: sind die Vektoren dann linear unabhängig voneinander. ^1686243995121
-
Analog zur vorherigen Betrachtung definieren wir die Menge linear unabhängig/abhängig als leere Menge als linear unabhängig.
Bemerkung zu Linearkombination:
Sei linear unabhängig: Dann gilt aus dieser Betrachtung die Folgerung: also können wir folgern, dass: Wir können also nur den Nullvektor bilden, indem wir die triviale Lösung anwenden. Gleichzeitig ist eine Menge von Vektoren linear abhängig wenn man den Nullvektor nicht trivial erzeugen kann.
Kanonische Einheitsvektoren:
Sei jedes ist eine Linearkombination LK. wir bezeichnen nun spezielle Vektoren die Kanonischen Einheitsvektoren, wenn sie Nullvektoren sind, aber an einer Stelle eine 1 aufweisen. Beschrieben werden sie mit: etc. Aus diesen Einheitsvektoren können wir bestimmte Eigenschaften entziehen: eine Linearkombination des Vektorraums aus den kanonischen Einheitsvektoren, also eine LK der Form: ist so etwa: linear unabhängig da man die einzelnen Einheitsvektoren nicht untereinander bilden kann.
Beispiel für l.u. LK:
ei linear unabhängige Vektoren eines Vektorraumes : Betrachten wir die Struktur eines kanonische Einheitsvektors , dann können wir daraus folgern: was nur gilt, wenn Betrachten wir weiter den VR über : weiter betrachten wir: und , wobei sie linear unabhängig sind?: Seien jetzt und definieren wir die Linearkombination: Also Wir können jetzt ein LGS betrachten und jede Zeile einzeln lösen und schauen, ob wir eine passende Lösung finden können? aus können wir einsetzen: und eingesetzt in = also
Prozedere zum Beweisen von linearer unabhängigkeit:
generell haben wir ein gewisses Prozedere,um zu beweisen, dass etwas L.u. ist:
- Linearkombination mit gegebenen Vektoren angeben
- Linearkombination dem Nullvektor des VR gleichsetzen
- Das LGS für jede Zeile passend lösen, einsetzen und so die Lösung konstruieren.
Bemerkung ist l.a:
Der Nullvektor selbst ist linear abhängig, denn man kann jeden beliebigen Skalar betrachten und daraus folgern:
Also folg gleichzeitig: Wenn aus einer Menge einer der Nullvektor ist, dann ist die Menge linear abhängig , denn wir können nicht-trivial den Nullvektor erzeugen, da wir alle Skalare auf 0, aber den Skalar des Nullvektors beliebig setzen können .
Ein einzelner Vektor , ist linear unabhängig: Denn, angenommen es gibt: mit , dann ist der gegebene Vektor (neutrales Element im Vektorraum) =
Beispiel von Linearer Abhängigkeit im Funktionenraum:
Sei Ferner: Sind sie linear unabhängig? (ja): Seien .
Um dies zu lösen, können wir einfach x beliebig besetzen, um anschließend Lambda zu bestimmen.
Beispielsweise: und für also folgern wir: also linear unabhängig
betrachten wir ferner: und , Alle drei Funktionen sind linear abhängig, denn: –> bilden des Nullvektors nicht-trivial möglich das folgt, da und somit
Bemerkung: Lineare Unabhängigkeit von uendlich Vektoren:
unendlich viele Vektoren aus heißen linear unabhängig, wenn je endlich viele (verschiedene) von denen linear unabhängig sind. Also wir können eine Teilmenge der gegebenen Vektoren als linear unabhängig beweisen.
Beispielsweise: : sind linear unabhängig, wenn: Sei eine endliche Auswahl dieser Vektoren, wobei alle verschiedenen voneinander sind!, dann können wir die Summe folgend bilden: , dann folgt, dass Das folgt, da die Summe, die wir generieren, einem Polynom entspricht und wir für ein Polynom von Grad N maximal N verschiedene Nullstellen finden können.
Dimensionen von Vektorräumen:
Sei .
- Falls es in n linear unabhängige Vektoren gibt, aber je n+1 Vektoren linear abhängig sind, so nennen wir dann Dimension von V. Also es folgt Für den Nullraum setzen wir dann die Dimension
- Gibt es in zu jedem (mindestens) linear unabhängige Vektoren, so heißt V dann unendlich dimensional also ``
Beispiel:
betrachten wir die Dimension eines Funktionenraumes. Dann resultieren wir mit: $F(\mathbb{R},\mathbb{R}) = \infty$, denn für jedes $m\in \mathbb{N}_{0}$ sind die Funktionen $1,x,x^{2},\ldots, x^{m}$ linear unabhängig
Basis :
Ferner betrachten wir die Basis eines Vektorraumes. Siehe dazu folgendes Dokument: [[math2_Vektorraum_Basis]]
Generierung von L.a Vektoren(m) mit L.u. Vektoren (m+1) :
Gegeben seien $m$ Vektoren $v_{1},\ldots,v_{m}$. Dann sind je $m+1$ Linearkombinationen von $v_{1},\ldots,v_{m}$ linear abhängig
Also wenn wir eine Menge von Vektoren haben ( abhängig oder nicht), dann können wir noch einen Vektor mehr generieren (aus den gegebenen!), und damit dann zeigen, dass diese Menge dann linear abhängig sein muss!
Beispiel:
Sei $V= K^{n}$, siehe obiges Beispiel (3.18)
und eine Menge von Vektoren $e_{1},\ldots,e_{n}$ linear unabhängig.
Dann ist jeder Vektor $v\in V$ eine Linearkombination von $e_{1},\ldots,e_{n}$ –> Basis,haben wir schon definiert.
Betrachten wir jetzt $n+1$ Vektoren, aus $V$ also die Basis und ein weiterer Vektor aus der Basis gebildet, dann folgt daraus dann, dass diese Menge linear abhängig ist.
Also betrachten wir $n+1$ Vektoren aus $V$ und dabei ist $v_{n+1}$ eine LK der Basis $e_{1},\ldots,e_{n}\Longrightarrow$ diese Menge ist linear abhängig.
Wir können daraus folgern:
die Dimension von $V$ ist also N! $dimV = n$ und weiter ist $e_{1},\ldots, e_{n}$ dann die Basis des Raumes $K^{n}$ Wir nennen diese Basis dann, die kanonische Basis. wie [[#Beispiel |hier]] schon betrachtet
Satz - Austauschlemma:
Sei $B = { v_{1},\ldots, v_{n}}$ eine Basis des Vektorraumes $V$. Sei weiterhin $w\not = \mathcal{O} \in V$ dann $w= \sum\limits_{i=1}^{n}\lambda_{i}\cdot v_{i}$ Wir können diese Summe auch umschreiben. Dafür muss gelten: Ist $\lambda_{j}\not =0$ für ein beliebiges $j\in {1,\ldots, n}$ (also irgendein Wert, den I annehmen wird in der Summe), so bilden die Vektoren: $v_{1},\ldots, v_{j-1}, w ,v_{j+1},v_{n}$ oder auch $B\setminus {v_{j} } \cup {w}$ -> wir ersetzen einen Vektor aus der Basis mit dem Vektor, den wir bilden konnten.
Also die ganze Basis ohne einen bestimmten Vektor $v_{j}$
Das heißt: man kann $v_{j}$ gegen $w$ austauschen, wenn $\lambda_{j} \not = 0$ in der Linearkombination von $W$
Als beispiel $B= \begin{pmatrix}1\0 \end{pmatrix}, \begin{pmatrix}0 \1 \end{pmatrix}$ als Basis für $\mathbb{R}^{2}$
sei $w= \begin{pmatrix}2\3 \end{pmatrix}$ Dann können wir die Linearkombination bilden: $w = 2 \begin{pmatrix}1\0 \end{pmatrix} + 3 \begin{pmatrix}0\1 \end{pmatrix}$
Hier sind also beide $\lambda \not = 0$ und so können wir dann austauschen !
Also eine neue Basis wäre dann beispielsweise $B = \begin{pmatrix}1\0 \end{pmatrix}, \begin{pmatrix}2\3 \end{pmatrix} \lor \begin{pmatrix}2\3 \end{pmatrix} , \begin{pmatrix}0\1 \end{pmatrix}$
Beweis :
Sei ohne Betrachtung der Allgemeinheit (o.B.d.A) $\lambda_{j}\not =0$ Wir zeigen jetzt: $w,v_{2},\ldots, v_{n}$ sind linear unabhängig –> was wir einfach zeigen können, indem wir den Nullvektor nicht trivial bilden können! dann folgt eine neue Basis: Sei dazu $\mu_{1},w + \mu_{2}\cdot v_{2}+ \ldots + v_{n}\mu_{n} =\mathcal{O}$ Wir wissen dabei, dass $w = \sum\limits_{i=1}^{n}\lambda_{i}\cdot v_{i}$ und auch, dass $\mu_{n}\in K$ Jetzt können wir passend einsetzen und verteilen: $\Longrightarrow \mu_{1}\cdot \lambda_{i}\cdot v_{1}+ \mu_{1}\cdot \lambda_{2} \cdot v_{2}+ \ldots + \mu_{1}\cdot \lambda_{n} \cdot v_{n} = \mathcal{O}$ > wichtig ist, dass mu immer gleich bleibt, weil wir ja nur die Linearkombination mit Lambda eingefügt haben! wir folgern daraus dann: $\Longrightarrow \mu_{1}= 0, \mu_{2}= 0 \ldots = \mu_{n}$ es folgt also, dass unsere Behauptung stimmt, denn wir können den einen Vektor so einsetzen, dass weiterhin der Nullvektor in der neuen LK gebaut werden kann.
Satz - Austauschsatz von Steinitz :
Sei $v_{1},\ldots v_{n}$ eine Basis on V. Und seien weiterhin $w_{1},\ldots, w_{m}\in V$ linear unabhängige Vektoren. Wir wissen nach Definition einer Basis bereits, dass $M \leq n$ sein muss! Dann kann man aus den $n$ Vektoren $v_{1},\ldots,v_{n}$ $n-m$ Stück (Vektoren) auswählen, die zusammen mit $w_{1},\ldots, w_{m}$ eine Basis von V bilden!
Das heißt wir haben beispielsweise schon eine Basis mit fünf Vektoren gegeben.
Betrachten wir also $v_{1},v_{2},v_{3},v_{4},v_{5}$ und weiterhin haben wir noch 3 weitere Vektoren, die voneinander unabhängig sind, gefunden. $w_{1},w_{2},w_{3}\Longrightarrow$ linear unabhängig! Jetzt können wir daraus eine neue Basis setzen, indem wir von der Basis mit den fünfe Vektoren zwei weitere suchen, die die Menge $w_{1},w_{2},w_{3},v_{i},v_{j}$ wieder linear unabhängig gestaltet. Wir haben damit eine neue Basis gefunden!
Beweis :
Wenden wir einen Algorithmus –> den aus der obigen Definition des [[#Satz - Austauschlemma|Austauschlemmas]] ; an. sei $w_{1}\in V~:~ w_{1}=\sum\limits_{j=1}^{n}\lambda_{j}\cdot v_{j}$ wären alle $\lambda_{j}=0$ dann wäre auch $w_{1}=\mathcal{O}$, dann sind aber die gegebenen Vektoren $w_{1},\ldots, w_{n}$ nicht mehr linear unabhängig! $\Longrightarrow$ Also gibt es mindestens eine $\lambda_{j}\not =0$ sodas beispielsweise $\lambda_{1}\not =0$ Unter dieser Betrachtung können wir dann $v_{1}$ austauschen und erhalten so die Basis $B = {w_{1}, v_{2},\ldots, v_{n}}$ von V –> wir haben also bereits ein Element aus der ersten richtigen Basis ausgetauscht! Diesen Schritt wiederholen wir jetzt für jedes weiteres $w_{i}$, bis wir die neue Basis bestimmt haben!
Das heißt: $w_{2}\in V: w_{2}= \sum\limits_{j=1}^{n}\mu_{j}\cdot v_{j}$/ wäre hier dann $\mu_{2}=\mu_{1}=0$, dann wäre $w_{2}= \mu_{1}\cdot w_{1}$ –> sie wären also linear abhängig und das ist gegen unsere Annahme! Also: mindestens ein $m_{j} (j=2,\ldots n) \not = 0$ ( wir haben ja bereits $j=1$ bestimmt) und somit setzen wir dann $\mu_{2}$ als die zweite Stelle unserer neuen Basis! $\Longrightarrow v_{2}$ austauschen und dann haben wir die Basis $B = {w_{1},w_{2},v_{3}\ldots, v_{n} }$ von $V$.
Korollar - Basisergänzungssatz :
Haben wir einen endliche dimensionalen Vektorraum $V$. Dann gilt: Jede linear unabhängige Teilmenge von $V$ lässt sich zu einer Basis von $V$ ergänzen.
WIr können also immer aus einer linear unabhängigen Menge von Vektoren eines Vektorraumes unter Verwendung / Ergänzung einer Basis eine neue Basis bilden. Dies folgt aus der Anwendung von [[#Satz - Austauschsatz von Steinitz]]
Beispiel :
Sei $V = \mathbb{R}^{4}$ weiterhin haben wir zwei linear unabhängige Vektoren $u_{1}= \begin{pmatrix} 1 \ 2 \ 0 \ 1\end{pmatrix} u)2 =\begin{pmatrix} 0 \ 2 \ 1 \ 1\end{pmatrix}$ Wie kann man jetzt $u_{1}, u_{2}$ zu einer Bais von V ergänzen? Wir nutzen dafür beide Austauschsätze. Wir brauchen also eine Basis, mit welcher wir starten. -> wir wissen, dass die Dimension 4 und somit auch eine Basis maximal 4 Vektoren beinhaltet $B = {e_{1},e_{2},e_{3},e_{4} }$ wir möchten jetzt $u_{1}$ inkludieren und somit als LK darstellen: $u_{1} = 1\cdot e_{1}+ 2\cdot e_{2}+ 0 \cdot e_{3}+ 1\cdot e_4$ wir dürfen hier jetzt $u_{1}$ gegen $e_{1},e_{2},e_4$ eintauschen, denn sie sind quasi in $u_1$ enthalten -> würden wir $e_{3}$ nehmen, würden wir quasi diese Information verlieren, denn $u_{1}$ wird ohne $e_{3}$ konstruiert! Wir tauschen jetzt $u_{1}$ gegen $e_{1}$: $B = { u_{1},e_{2}, e_{3}, e_{4}}$ Weiter wollen wir jetzt $u_{2}$ passend implementieren: Also $u_{2}= 0\cdot u_{1}+ 2\cdot e_{2}+ 1\cdot e_{3}+ 0\cdot e_{4}$ -> wir können gegen $e_{2},e_{3}$ tauschen Tauschen wir gegen $e_{2}$ . Dann haben wir eine neue Basis gebildet $B = {u_{1},u_{2},e_{3},e_{4} }$
Erzeugte Vektorräume:
Sei $V$ ein K-Vektorraum, $M \subseteq V$. Der von $M$ erzeugte oder aufgespannte Untervektorraum $\langle M \rangle_K$ oder auch nur $\langle M\rangle$ ist die Menge aller (endlichen) LinearKombinationen die man mit Vektoren aus $M$ bilden kann, also $\langle M\rangle_{K}~:= {\sum\limits_{i=1}^{n} \lambda_{i}\cdot v_{1}| \lambda_{i}\in K, v_{i}\in M, n\in \mathbb{N} }$ -> also einfach alle möglichen Kombinationen, die aus den Vektoren, die in $M$ enthalten sind gebildet werden können! Weiterhin folgt für den leeren Vektorraum : $\langle \emptyset \rangle_{K} := {\mathcal{O} }$ Für $M = {v_{1},\ldots, v_{m}}$ kann auch alternativ die Menge der Vektoren geschrieben werden und nicht nur die Menge $M$. Also $\langle v_{1},\ldots v)n \rangle$
Erzeugersysteme :
Ist $V = \langle M \rangle_{K}$ so heißt $M$ ein Erzeugersystem von $V$.
Bemerkung, dass $\langle M \rangle_{K}$ ein UR :
- $\langle M \rangle_{K}$ ist tatsächlich ein Untervektorraum und zwar der kleinste, der M enthält: Es folgt daraus also $M \subseteq \langle M \rangle_{K}$ und sofern gilt, dass U ein UR von V mit $M\subseteq U$ so enthält $U$ alle endlichen LK von Elementen aus der Menge $M$. Wir können daraus also folgern: $\Longrightarrow \langle M\rangle_{K}\subseteq U$ und ferner dannn auch $\Longrightarrow U$ ist kleiner als $\langle M \rangle_{K}$.
- Nach unseren Definition und Sätzen über die Dimension gilt dann: $dim(\langle v_{1},\ldots, v_{m}\rangle_{K}) \leq m$ und auch $dim(\langle v_{1},\ldots,v_{m}\rangle_{K}) = m \Longleftrightarrow v_{1},\ldots ,v_{m}$ sind linear unabhängig
- Man nennt $M\subseteq V$ eine Basis von $V$, wenn $\langle M\rangle=V$ gilt und die Vektoren aus $M$ linear unabhängig sind.
Der neue Basisbegriff stimmt im Falle der Bedingung $dimV<\infty$ mit dem bisherigen überein, gilt aber auch für $dimV=\infty$ unsere neue Bemerkung gilt weiterhin aber auch für $dim~V = \infty$, wir können also noch mehr betrachten und bestimmen.
Beispielweise: ist damit dann $M= {1,x,x^{2},\ldots}$ eine Basis von dem Funktionenraum ${p. \mathbb{R} \longrightarrow \mathbb{R}, p \text{ polynom }\subseteq \mathcal{F}(\mathbb{R},\mathbb{R}) }$
Schnittmengen | Summen :
Wir können in Vektorräumen ebenfalls Schnittmengen und Summen von Untervektorräumen betrachten. Dabei sind die Infos hier zu finden: [[math2_Vektorraum_SchnittSumme]]
Dimensionsformel für $UR$ :
Sei $V$ ein K-VR und weiter $dim <\infty$ und $U,V \subseteq V$ Untervektorräume in $V$
Dann gilt jetzt $dim~(U+V) = dimU +dimW-dim(U\cap W)$
insbesondere dann: Falls $U\cap W = {\mathcal{O}}$, dann ist die Dimension folgend gesetzt: $dim~(U+W) = dimU+dimW$
Wir müssen hier auch betrachten, dass es relevant ist, dass die beiden Untervektorräume in ihrer Größe verschieden genug sind, da sonst eine Aussage trivial oder nicht so relevant ist/sein könnte.
Beweis :
Ein Beweis könnte die Schnittmenge der beiden Untervektorräume betrachten und dann von dieser Grundlage - also eine Basis für diesen Bereich dann in den ersten und anschließend in den zweiten UV expandieren.
Anders: Wir benötigen wieder den Basisergänzungssatz. Wir starten mit der Bsis $v_{1},\ldots, v_{k}$ von $U\cap W$. Anschließend wählen wir jetzt $n-k$ Vektoren $u_{k+1},\ldots,u_{n}$ aus $U$ als auch $m-k$ Vektoren mit $w_{k+1},\ldots, w_{m}$ aus $W$, sodass wir aus diesen Vektoren unter Ergänzung der Basis $v_{1},\ldots, v_{k}$ jeweils eine Basis zu $U,W$ bilden können. Wir müssen ferner zeigen, dass: $(v_{1},\ldots v_{k})^{\text{ Basis der Schnittmenge}}, (w_{k+1},\ldots w_{m})^{\text{ basis von w}}, (u_{k+1},\ldots,u_{n})^{\text{ Basis von v}}$ bilden dann die Basis von $U+N$. Haben wir das gezeigt, können wir folgern, dass: $dim~(U+W) = k+n-K+m-k = n+m -k_{dim~U\cap W}$
Skalarprodukt und Norm :
Weitere Charakteristika, spezifisch die Länge eines Vektors (Norm), sowie die Lage von zwei Vektoren, können wir mit der Norm und dem Skalarprodukt eines Vektors beschreiben. Weitere Infos finden sich hier: [[math2_Vektorraum_Norm_Skalarprodukt]]