Diese Website ist inzwischen veraltet, wird nicht mehr gepflegt und wird voraussichtlich in einigen Monaten offline genommen. Wenn jemensch Interesse daran hat die Inhalte zu übernehmen und weiter zu pflegen, kotanktiert mich bitte über exploeco.de. Ich würde mich sehr freuen, wenn die Inhalte eine Zukunft hätten. Ich stelle gerne alles Notwendige zur Verfügung und bin auch gerne bei der Einrichtung einer neuen Website oder eines neuen Wikis behilflich. Gerne kann auch ein ehemals gestarteter Ansatz reaktiviert werden, unter wiki.fsrpsy-leipzig.de.

Wichtige Sätze und Definitionen

Die Sätze und Definitionen entsprechen nicht unbedingt der nötigen mathematischen Strenge. Sie sind lediglich als Überblick über die wichtigsten Definitionen und Sätze des Moduls gedacht.

Fundamentalsatz der Algebra

Jedes Polynom mit Grad größergleich 1 hat mindestens eine Nullstelle in tex:C.

Permutation

Eine Permutation ist eine bijektive Abbildung tex:f: X \rightarrow X aus sich selbst.

Es gibt genau tex:n! Möglichkeiten der Anordnung.

Zyklenschreibweise

Die Zyklenschreibweise oder Hintereinanderausführung von Transpositionen (Vertauschungen) gibt die abgeschlossenen Vertauschungen innerhalb einer Permutation an.

Beispiel (Satz 5816A)

Vorzeichen

Das Signum (Vorzeichen) richtet sich nach der Anzahl der nötigen Vertauschungen.

  • Ungerade → Negativ (-)
  • Gerade → Positiv (+)

Berechnungsmethode (mit Beispiel)

Inverse

Eine inverse Permutation liegt vor, wenn:

tex:\sigma  \circ \sigma^{-1} = \sigma^{-1}  \circ \sigma = id

Dazu kann eindach die Zyklenschreibweise umgedreht werden (z.B. statt (132)(45) → (231)(54)).

Gleichungssystem

Lösbarkeit

Ein lineares Gleichungssystem ist allgemein lösbar, wenn:

tex:Rang(A) = Rang(A|B)

Ein lineares Gleichungssystem ist eindeutig lösbar, wenn:

tex:Rang(A) = Anzahl Spalten

Gruppe

tex:(G, *) ist eine Gruppe, wenn:

1. Assoziativ

tex:(g_1 * g_2) * g_3 = g_1 * (g_2 * g_3)

2. Neutrales Element

tex:g * e = e * g = g

3. Inverses Element

Zu jedem tex:g existiert ein tex:g^{-1} mit tex:g * g^{-1} = e

Abelsche Gruppe

tex:(G, *) heißt abelsche bzw. kommutative Gruppe, wenn:

4. Kommutativ

tex:g_1 * g_2 = g_2 * g_1

Körper

tex:K ist ein Körper, wenn:

1. Abelsche Gruppe (+)

tex:(K, +) abelsche Gruppe mit neutralem Element 0.

2. Abelsche Gruppe (*)

tex:(K \backslash \{0\}, \cdot) abelsche Gruppe mit neutralem Element 1.

3. Distributiv

tex:a \cdot (b + c) = a \cdot b + a \cdot c

tex:(a + b) \cdot c = a \cdot c + b \cdot c

Linearkombination

Sei tex:V Vektorraum mit endlich vielen Vektoren tex:v_1, ..., v_n und seien tex:a_1, ..., a_n \in K Skalare, so nennt man jeden Vektor tex:v \in V eine Linearkombination, wenn:

tex:\displaystyle{ v = a_1 \cdot v_1 + a_2 \cdot v_2 + ... + a_n \cdot v_n = \sum_{i=1}^{n}{a_i \cdot v_i} }

Lineare Hülle

Die lineare Hülle ist die Menge aller Linearkombinationen.

Sei tex:A eine Teilmenge des Vektorraums tex:V, dann ist die lineare Hülle:

tex:\displaystyle{ A = { \{ \sum_{i=1}^{n} {a_i \cdot v_i} | a_i \in K, v_i \in A \} } }

Lineare Abhängigkeit

Seien tex:v_1, ..., v_n Vektoren aus dem Vektorraum tex:V und tex:a_1, ..., a_n \in K. Die Vektoren sind linear unabhängig, wenn sich durch Linearkombination einzig die triviale Lösung ergibt:

tex:\displaystyle { a_1 \cdot v_1, a_2 \cdot v_2, ..., a_n \cdot v_n = \sum_{i=1}^{n} {a_i \cdot v_i} = 0 }

Erzeugendensystem

tex:V sei K-Vektorraum. Die Vektoren tex:v_1, ..., v_n heißen Erzeugendensystem, wenn

tex:lin(v_1, ..., v_n) = V.

Basis

tex:V sei K-Vektorraum. Ein Erzeugendensystem tex:v_1, ..., v_n von V heißt Basis, wenn

tex:v_1, ..., v_n linear unabhängig.

Basisergänungssatz

tex:V sei K-Vektorraum und tex:U eine linear unabhängige Teilmenge von tex:V. Außerdem sei tex:E ein Erzeugendensystem von tex:V. Dann gilt:

tex:U lässt sich durch Elemente aus tex:E zu einer Basis von tex:V ergänzen.

Vektorraum

Ein Vektorraum über dem Körper tex:K ist eine additive abelsche Gruppe, auf der zusätzlich eine Multiplikation mit einem Skalar aus tex:K möglich ist.

Folgende Bedingungen müssen für die Skalarmultiplikation für alle tex:u, v \in V und tex:\lambda, \mu \in K erfüllt sein:

1. Assoziativität

tex:\lambda \cdot ( \mu \cdot v ) = (\lambda \cdot \mu ) \cdot v

2. Distributivität

tex:\lambda \cdot ( u + v ) = \lambda \cdot u + \lambda \cdot v

tex:(\lambda + \mu) \cdot v = \lambda \cdot v + \mu \cdot v

3. Neutralität

tex:1 \cdot v = v

Unterraum

Eine Teilmenge tex:U vom Vektorraum tex:V heißt Untervektorraum von tex:V, wenn sie selbst ein Vektorraum ist:

1. Nullelement enthalten

tex:0 \in U

2. Abgeschlossen bzgl. Addition

Für alle tex:u, v \in U gilt → tex:u + v \in U

3. Abgeschlossen bzgl. Multiplikation

Für alle tex:\lambda \in K und alle tex:u \in U gilt → tex:\lambda \cdot u \in U

Bild

tex:V und tex:W seien K-Vektorräume, tex:f: V \to W eine lineare Abbildung und tex:b_1, ..., b_n eine Basis von tex:V. Dann ist das Bild:

tex:Bild(f) = lin( f(b_1), ..., f(b_n) )

Surjektivität

tex:V und tex:W seien K-Vektorräume, tex:f: V \to W eine lineare Abbildung und tex:lin( f(b_1), ..., f(b_n) ) das Bild von tex:f. Die Abbildung ist genau dann surjektiv wenn,

  • Voller Zeilenrang (→ ohne Nullzeilen)
  • tex:Bild(f) = W
  • tex:dim(Bild(f)) = dim(V) - dim(Kern(f))

Kern

tex:V und tex:W seien K-Vektorräume und tex:f: V \to W eine lineare Abbildung. Dann ist der Kern:

tex:Kern(f) = \{v \in V| f(v) = 0\} = f^{-1}{0}

Injektivität

tex:V und tex:W seien K-Vektorräume. tex:f: V \to W ist genau dann injektiv wenn,

  • Voller Spaltenrang (Köpfe)
  • tex:Kern(f) = \{0\}
  • tex:dim(Kern(f)) = 0 und tex:Rang(f) = dim(W) = dim(V)
  • für eine Basis tex:b_1, ..., b_n von tex:V, eine Basis tex:f(b_1), ..., f(b_n) von tex:W existiert.

Dimension

tex:V sei K-Vektorräume und tex:b_1, ..., b_n Basis. Die Dimension von tex:V entspricht der Anzahl der Basen tex:n:

tex:dim(V) = n

Dimensionsformel

tex:U_1,U_2 seien Unterräume, dann gilt:

tex:dim(U_1 + U_2) = dim(U_1) + dim(U_2) - dim(U_1 \bigcap U_2)

Spezialfall

Wenn tex:dim(U_1 \bigcap U_2) = \{0\} dann tex:dim(U_1 + U_2) = dim(U_1) + dim(U_2)

→ Siehe auch direkte Summe.

Eigenschaften

tex:V und tex:W seien K-Vektorräume und tex:f: V \to W linear. Es gilt:

  • tex:dim(Kern(f)) = defekt(f)
  • tex:dim(Kern(f)) + Rang(f) = dim(V)

Komplementärer Unterraum

tex:V sei K-Vektorräume und tex:U_1,U_2 seien Unterräume.

Wenn tex:U_1 \bigcap U_2 = \{0\}, dann sind tex:U_1 und tex:U_2 komplementäre Unterräume.

Direkte Summe

tex:U_1,U_2 seien komplementäre Unterräume.

Dann ist tex:V = U_1 \bigoplus U_2 die direkte Summe.

Lineare Abbildung

Eine Abbildung ist linear, wenn folgende Bedingungen gelten:

1. Homogen

tex:f(\lambda x) =  \lambda f(x)

2. Additiv

tex:f(x+y) = f(x) + f(y)

Dimension

Sei tex:f: V \rightarrow W und tex:dim(V) = n, dann gilt:

tex:dim(Kern(f)) + dim(Bild(f)) = n

Morphismen

Für tex:f: V -> W gelten folgende Strukturgleichheiten (Morphismen):

  • HomomorphismusLineare Abbildung
  • Isomorphismustex:V und tex:W sind bijektiv
  • Endomorphismustex:V = W
  • Automorphismustex:V und tex:W sind bijektiv und tex:V = W

Matrizen

Sei tex:M eine Matrix mit tex:m Zeilen und tex:n Spalten.

Kern

Der Kern einer Matrix ergibt sich aus der Lösung des homogenen LGS tex:A \cdot x = 0.

Rang/Defekt

Der Defekt einer Matrix ergibt sich aus dem Rang der Matrix.

tex:n = defekt(A) + Rang(A) (Rangsatz)

und somit tex:defekt(A) = n - Rang(A)

Quadratische Matrizen

  • Symmetrie: tex:A^T = A
  • Antisymmetrie: tex:A^T = -A

Inverse Matrix

Ist eine Matrix invertierbar heißt diese regulär. Ansonsten heißt sie singulär.

Adjunktenmatrix

→ Berechnung einer Adjunktenmatrix

Adjungierte Matrix

In reellen Zahlen

Sei tex:A \in R^{mxn} mit tex:A = (a_{i,j}). Die adjungierte Matrix tex:A^* ist dann:

tex:A^* = A^T

Sie heißt Selbstadjungiert, wenn:

tex:A^* = A^T = A

In komplexen Zahlen

Sei tex:A \in C^{mxn} mit tex:A = (a_{i,j}). Die adjungierte Matrix tex:A^* ist dann:

tex:A^* = \overline{A^T} := ({\overline{a_{i,j}})

Sie heißt Selbstadjungiert, wenn:

tex:A^* = \overline{A^T} = A

Orthogonale Matrix

Eine Matrix tex:A ist orthogonal, wenn:

tex:A^{-1} = A^T

Darstellungsmatrix

Die Darstellungsmatrix (Abbildungsmatrix) beschreibt eine lineare Abbildung zwischen zwei Vektorräumen.

Sei tex:U, V Vektorraum und tex:M eine Darstellungsmatrix:

tex:V = M \cdot U

bzw.

tex:f(U) = M \cdot U

Determinante

Die Determinante ist eine spezielle Abbildung von einer quadratischen Matrix auf ein Skalar.

tex:\displaystyle{ det(A) = {  | {a \atop b} {c \atop d}  | } = a \cdot d - b \cdot c }

Multiplikationssatz

Seien tex:A,B Matrizen, so gilt der Multiplikationssatz:

tex:det(A \cdot B) = det(A) \cdot det(B)

Ist A invertierbar gilt außerdem:

tex:(det(A))^{-1} = det(A^{-1})

Laplacescher Entwicklungssatz

Mit Hilfe des Laplaceschen Entwicklungssatzes lassen sich Determinanten berechnen.

Skalarprodukt

Das Skalarprodukt verknüpft 2 Vektoren zu einem Skalar (einer Zahl). Es ist eine positiv definite Bilinearform der Form:

tex:\langle \cdot, \cdot \rangle: V \times V \rightarrow R

Für tex:u,v,w \in V und tex:\lambda \in R gilt:

1. Bilinear

a) tex:\langle u+v,w \rangle = \langle u,w \rangle + \langle v,w \rangle

b) tex:\langle u,v+w \rangle = \langle u,v \rangle + \langle u,w \rangle

c) tex:\langle u,\lambda v \rangle = \lambda \langle u,v \rangle = \langle \lambda u,v \rangle

2. Symmetrisch

tex:\langle u,v \rangle = \langle v,u \rangle

3. Positiv Definit

a) tex:\langle u,u \rangle \ge 0

b) tex:\langle u,u \rangle = 0 \Leftrightarrow u = 0

Euklidischer Raum

tex:V sei Vektorraum.

Ist auf tex:V ein Skalarprodukt definiert, so ist tex:V ein euklidischer Raum.

Standardskalarprodukt

tex:\displaystyle{ \langle u,v \rangle = \sum_{i=1}^{n} {u_i \cdot v_i} = u_1 \cdot v_1 + u_2 \cdot v_2 + ... + u_n \cdot v_n }

Cauchy-Schwarzsche Ungleichung

Seien tex:u,v \in V, dann gilt für tex:\langle u,v \rangle:

tex:| \langle u,v \rangle | \le \|u\| \cdot \|v\|

→ Siehe auch Dreiecksungleichung

Winkelberechnung

Seien tex:u,v \in V, dann beträgt der Winkel zwischen ihnen:

tex:\displaystyle cos(\alpha) = { {\langle u,v \rangle} \over {\|u\| \cdot \|v\|} }

Norm

Die Norm ist eine Abbildung von Objekten (z.B. Matrizen, Vektoren, Folgen, Funktionen, etc.) auf eine Zahl (tex:R_+), deren Zweck die Größenbeschreibung ist.

tex:\| \cdot \|: V \to R_+

Für alle tex:u,v \in V und tex:\lambda \in K gilt:

1. Positive Definitheit

a) tex:\|u\| \ge 0

b) tex:\|u\| = 0 \Rightarrow u = 0

2. Absolute Homogenität

tex:\|\lambda u\| = |\lambda| \cdot \|u\|

3. Dreiecksungleichung

tex:\|u + v\| \le \|u\| + \|u\|

Euklidische Norm (Standardnorm)

tex:\displaystyle \|u\| = \sqrt{ \sum_{k=0}^{n} {u_k^2} } = \sqrt{u_1^2 + u_2^2 + ... + u_n^2}

Orthogonalsystem

Sei tex:U eine Teilmenge des Vektorraums tex:V.

tex:u_1, ..., u_n \in U ist Orthogonalsystem, wenn:

1. Orthogonalität

tex:\langle u_1,u_2 \rangle = \langle u_2,... \rangle = \langle ...,u_n \rangle = 0

2. Nullelement

tex:u_1 \ne u_2 \ne ... \ne u_n \ne 0

Orthonormalsystem

tex:u_1, ..., u_n \in U ist Orthogonalsystem, wenn zusätzlich:

Normierung

tex:\|u_1\|, ..., \|u_n\| = 1

Gram-Schmidtsches Orthogonalisierungsverfahren

Orthogonale Projektion

Sei eine Orthonormalbasis tex:b_1, ..., b_n gegeben, außerdem der Vektor tex:v, welcher projiziert wird. Die orthogonale Projektion tex:p des Verktors tex:v auf den Orthonormalraum ergibt aus:

tex:\displaystyle p = \sum_{k=1}^{n} \langle v, b_i \rangle b_i

Eigenvektor

Sei tex:f: V \Rightarrow V (Endomorphismus) und tex:\lambda \in K, so ist der Eigenvektor der Vektor, der durch tex:f auf ein Vielfaches von sich selbst abgebildet wird.

tex:f(v) = \lambda v mit tex:v \ne 0

Matrixform

Der Eigenvektor kann durch eine quadratische Matrix beschrieben werden:

tex:A x = \lambda x

bzw.

tex:(A - \lambda E) \cdot x = 0

Eigenwert

Der Eigenwert gibt die Nullstellen der Matrix-Gleichung an und entspricht tex:\lambda \in K des Eigenvektors.

Vielfachheit

Sei tex:AV die algebraische Vielfachheit und tex:GV die geometrische Vielfachheit. Es gilt:

tex:1 \le GV \le AV

→ Beispiel: Erhält man eine algebraische Vielfachheit von 1, so ist die geometrische Vielfachheit genau 1.

Algebraische Vielfachheit

Die algebraische Vielfachheit gibt an, wie oft eine Nullstelle des charakteristischen Polynoms vorkommt.

Geometrische Vielfachheit

Die geometrische Vielfachheit ist die Dimension des Eigenraumes eines zugehörigen Eigenwertes.

Diagonalisierbarkeit

Es seien tex:A eine beliebige quadratische Matrix, tex:S eine invertierbare Matrix und tex:D_A eine Diagonalmatrix. tex:A heißt diagonalisierbar, wenn:

tex:D_A = S^{-1} \cdot A \cdot S

bzw.

tex:S \cdot D_A = A \cdot S

Berechnung einer Diagonalmatrix

Vielfachheit

Eine Matrix ist genau dann diagonalisierbar, wenn zu jedem Eigenwert die algebraische Vielfachheit tex:AV gleich der geometrischen Vielfachheit tex:GV ist. Wenn also für jeden Eigenwert:

tex:AV = GV

 
uni-leipzig/physik/module/algebra/inhalte.txt · Zuletzt geändert: 2012/07/10 00:26 (Externe Bearbeitung)
 
Falls nicht anders bezeichnet, ist der Inhalt dieses Wikis unter der folgenden Lizenz veröffentlicht:CC Attribution-Noncommercial-Share Alike 3.0 Unported
Recent changes RSS feed Donate Powered by PHP Valid XHTML 1.0 Valid CSS Driven by DokuWiki