lineare algebra i mitschrift

64
Mitschrift zur Lineare Algebra I Vorlesung von Prof. Dr. Felsner im WS07/08 Thomas El Khatib 30. November 2007 1

Upload: themathchannel

Post on 06-Jun-2015

4.576 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Lineare Algebra I Mitschrift

Mitschrift zur Lineare Algebra I Vorlesung vonProf. Dr. Felsner im WS07/08

Thomas El Khatib

30. November 2007

1

Page 2: Lineare Algebra I Mitschrift

Inhaltsverzeichnis1 Grundbegriffe 5

1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 51.1.1 Mengennotationen . . . . . . . . . . . . . . . . . . . . . . . 51.1.2 Zahlenmengen . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.4 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.5 Komposition von Abbildungen . . . . . . . . . . . . . . . . . 61.1.6 Identität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1.7 Menge aller Abbildungen . . . . . . . . . . . . . . . . . . . 81.1.8 Produkte von Mengen . . . . . . . . . . . . . . . . . . . . . 8

1.2 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.2 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . 91.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.4 Partitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Gruppen 112.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.1.1 Innere Verknüpfung . . . . . . . . . . . . . . . . . . . . . . 112.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1.3 Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1.5 Symmetrische Gruppen . . . . . . . . . . . . . . . . . . . . . 142.1.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.1.7 Eigenschaften von Gruppen . . . . . . . . . . . . . . . . . . 152.1.8 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 172.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.1.10 Untergruppenkriterium . . . . . . . . . . . . . . . . . . . . . 17

2.2 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2.2 Isomorphismus . . . . . . . . . . . . . . . . . . . . . . . . . 182.2.3 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2.4 Beispiele von Homomorphismen . . . . . . . . . . . . . . . . 182.2.5 Bild und Kern von Homomorphismen . . . . . . . . . . . . . 192.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz . . . . . 192.2.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Ringe, Körper, Polynome 223.1 Definitionen: Ring und Körper . . . . . . . . . . . . . . . . . . . . . 22

3.1.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.1.3 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 233.1.4 Gegenbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . 233.1.5 Unterringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.1.6 Ringhomomorphismen . . . . . . . . . . . . . . . . . . . . . 243.1.7 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.1.8 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.1.9 Eigenschaften von Körpern . . . . . . . . . . . . . . . . . . . 24

2

Page 3: Lineare Algebra I Mitschrift

3.1.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.1.11 Der Körper der komplexen Zahlen . . . . . . . . . . . . . . . 25

3.2 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.2.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.2.3 Polynomringe . . . . . . . . . . . . . . . . . . . . . . . . . . 283.2.4 Gradformel . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.2.5 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 313.2.6 Polynomdivision . . . . . . . . . . . . . . . . . . . . . . . . 313.2.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.2.8 Folgerungen, Nullstellen . . . . . . . . . . . . . . . . . . . . 323.2.9 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . 333.2.10 Lemma von Bezout . . . . . . . . . . . . . . . . . . . . . . . 343.2.11 Spezielle Faktorpolynomringe . . . . . . . . . . . . . . . . . 343.2.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

4 Vektorräume 374.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.1.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1.2 Weitere Eigenschaften . . . . . . . . . . . . . . . . . . . . . 374.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1.4 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . 384.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.1.6 Durchschnitte von Unterräumen sind Unterräume . . . . . . . 394.1.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.1.8 Vereinigung von Unterräumen ist kein Unterraum . . . . . . . 404.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.1.10 Lineares Erzeugnis . . . . . . . . . . . . . . . . . . . . . . . 404.1.11 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . 414.1.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424.1.13 Charakterisierung der linearen Unabhängigkeit . . . . . . . . 42

4.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 434.2.1 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434.2.2 Charakterisierung des Vektorraums durch eine seiner Basen . 434.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.2.4 Alternative Definitionen . . . . . . . . . . . . . . . . . . . . 444.2.5 Existenz einer Basis für endlich erzeugbare Vektorräume . . . 454.2.6 Austauschlemma . . . . . . . . . . . . . . . . . . . . . . . . 454.2.7 Austauschsatz von Steinitz . . . . . . . . . . . . . . . . . . . 464.2.8 Alle Basen haben gleich viele Elemente . . . . . . . . . . . . 474.2.9 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 474.2.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474.2.11 Dimension von Unterräumen . . . . . . . . . . . . . . . . . . 48

4.3 Unendlichdimensionale Vektorräume . . . . . . . . . . . . . . . . . . 484.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484.3.2 Halbordnungen . . . . . . . . . . . . . . . . . . . . . . . . . 484.3.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.3.4 Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.3.5 Lemma von Zorn . . . . . . . . . . . . . . . . . . . . . . . . 494.3.6 Basisexistenzsatz für beliebige Vektorräume . . . . . . . . . . 49

3

Page 4: Lineare Algebra I Mitschrift

4.4 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.4.2 Zeilenstufenform . . . . . . . . . . . . . . . . . . . . . . . . 504.4.3 Kriterium für lineare Unabhängigkeit . . . . . . . . . . . . . 514.4.4 Zeilenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 514.4.5 Elementare Zeilenumformungen . . . . . . . . . . . . . . . . 514.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend . . 524.4.7 Weitere Zeilenumformungen . . . . . . . . . . . . . . . . . . 524.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden . . 534.4.9 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

4.5 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . 544.5.1 Summe von Untervektorräumen . . . . . . . . . . . . . . . . 544.5.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554.5.3 Summe und Erzeugnis . . . . . . . . . . . . . . . . . . . . . 554.5.4 Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . 554.5.5 Direkte Summe . . . . . . . . . . . . . . . . . . . . . . . . . 564.5.6 Existenz von komplementären Unterräumen . . . . . . . . . . 564.5.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

5 Lineare Abbildungen 575.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

5.1.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 575.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen . . . 585.1.4 Eigenschaften von linearen Abbildungen . . . . . . . . . . . 585.1.5 Komposition linearer Abbildungen sind linear . . . . . . . . . 595.1.6 Vektorräume der Homomorphismen . . . . . . . . . . . . . . 595.1.7 Menge der Endomorphismen . . . . . . . . . . . . . . . . . . 60

5.2 Bild, Faser, Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 605.2.2 Rang einer linearen Abbildung . . . . . . . . . . . . . . . . . 625.2.3 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . 625.2.4 Faserung eines Vektorraums . . . . . . . . . . . . . . . . . . 625.2.5 Affine Teilräume . . . . . . . . . . . . . . . . . . . . . . . . 635.2.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635.2.7 Charakterisierung von affinen Unterräumen . . . . . . . . . . 63

6 Bildquellen 64

4

Page 5: Lineare Algebra I Mitschrift

1 Grundbegriffe

1.1 Mengen und Abbildungen1.1.1 Mengennotationen

∈ { } ⊂ ⊆ ∪ ∩ \ ×

{1, 3, 5, 7, 9}︸ ︷︷ ︸explizite Nennung

= {a ∈ N | a ungerade, a < 10}︸ ︷︷ ︸implizit durch Eigenschaften

1.1.2 Zahlenmengen

N,Z,Q,R,C

1.1.3 Rechenregeln

Seien A,B,C, Ni︸︷︷︸verschiedene i von 1 bis n

⊆ X

• A ∪B = B ∪A, A ∩B = B ∩A - kommutativ

• (A ∩B) ∩ C) = (A ∩ (B ∩ C)), (A ∩B) ∩ C) = (A ∩ (B ∩ C)) - assoziativ

A ∪

(⋂i∈I

Ni

)︸ ︷︷ ︸

N1∩N2∩...∩Nn

=⋂i∈I

(A ∪Ni)

A ∩

(⋃i∈I

Ni

)=⋃i∈I

(A ∩Ni)

distributiv

1.1.4 Abbildungen

Definition 1.1.f : X → Y, x 7→ f(x)

bedeutet f ordnet jedem x ∈ X ein y = f(x) ∈ Y zu.

• A ⊆ X Bild von A: f(A) = {y ∈ Y | x ∈ a ∧ f(x) = y}

• B ⊆ Y Urbild von B: f−1(B) = {x ∈ Y | f(x) ∈ B}

• injektiv: Keine zwei Elemente von X werden auf dasselbe Element abbgebildet(engl. one-to-one).

• surjektiv: Jedes Element aus y ist ein f(x) (liegt im Bild von X) (engl. onto).

• bijektiv: injektiv + surjektiv

Lemma 1.1. Seien X,Y endlich, f : X → Y eine Abbildung. Es gilt

5

Page 6: Lineare Algebra I Mitschrift

(a) f ist injektiv ⇐⇒ |X| = |f(X)|.

(b) f ist surjektiv ⇐⇒ f(X) = Y ⇐⇒ |f(X)| = |Y |.

Beweis. a) Illustration

Es muss gelten |X| = |Pfeile|. Injektivität heißt nun, dass auf kein Element 2oder mehr Pfeilspitzen zeigen, also gilt |Pfeilspitzen| = |f(x)|. Zusammen folgt

|X| = |Pfeile| = |Pfeilspitzen| = |f(X)|

b) X

Satz 1.1.1. Sei X eine endliche Menge und f : X → X eine Abbildung, dann istäquivalent

(a) f ist injektiv

(b) f ist surjektiv

(c) f ist bijektiv

Beweis. (a)⇔ (b)Aus dem Lemma folgt:f ist injektiv ⇐⇒ |X| = |f(X)| ⇐⇒ |f(X)| = |X| (= |Y |) ⇐⇒ f ist surjektivAus (a) und (b) folgt direkt (c).

Achtung. Wenn X unendlich ist, dann wird der Satz falsch.Es gibt surjektive Abbildungen f : R→ R2, z.B.

x = 0, x1x2x3 . . . 7→

{yx = 0, x1x3x5 . . .

zx = 0, x2x4x6 . . .

(Darstellung von reellen Zahlen als unendliche p-adische Brüche ist nicht eindeutig!)

1.1.5 Komposition von Abbildungen

Definition 1.2. Seienf : X → Y, g : Y → Z

dann wird definiert

g ◦ f : X → Z

x 7→ (g ◦ f)(x) = g(f(x))

Xf→Y g→ Z

Xg◦f→ Z

6

Page 7: Lineare Algebra I Mitschrift

1.1.6 Identität

Definition 1.3. Eine spezielle Abbildung ist die wie folgt definierte Identität idX aufeiner Menge X

idX : X → X

x 7→ x

Für die Identität giltf ◦ idX = idY ◦f = f

Lemma 1.2. Sei f : X → Y eine Abbildung.

(a) f ist injektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = idX

(b) f ist surjektiv ⇐⇒ ∃ g : Y → X mit f ◦ g = idY

(c) f ist bijektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = idX ∧f ◦ g = idY

Beweis. (a) Illustration

Von allen Elementen aus Y , auf die ein Pfeil zeigt, geht der Pfeil für die Ab-bildung g auf demselben Weg zurück. Man dreht die Pfeile also praktisch um.Alle Elemente von Y , auf die kein Pfeil zeigt, werden durch g auf ein beliebigesElement von X abgebildet.

In der Hinrichtung ist zu zeigen: [∃ g Y → X : g ◦ f = idX ] ⇒ f ist injek-tiv.Wir zeigen: f ist nicht injektiv⇒6 ∃ g Y → X : g ◦ f = idX .Wenn f nicht injektiv ist, gibt es zwei Elemente ausX , die auf dasselbe Elementaus Y abgebildet wird, also

∃x1, x2 ∈ X : x1 6= x2 ∧ f(x1) = f(x2) = y ∈ Y

Wenn g(y) = x1, dann ist (g ◦ f)(x2) = x1 6= x2, also ist g 6= idX .Wenn g(y) = x2, dann ist (g ◦ f)(x1) = x2 6= x2, also ist g 6= idX .Wenn g(y) = x3, x3 6= x1, x3 6= x2, dann ist (g ◦ f)(x2) = x3 6= x2, also istg 6= idX .Für jedes g gibt es ein Element x ∈ X , das durch g ◦ f nicht auf sich selbstabgebildet wird, also gibt es kein g mit g ◦ f = idX .Die Rückrichtung ist klar: Da g eine Abbildung ist, wird f(x1) = f(x2) dasselbeElement x1 = x2 zugeordnet.

(b) Illustration

7

Page 8: Lineare Algebra I Mitschrift

Man sucht für jedes Element in Y einen Pfeil aus, der auf es zeigt, und kehrt esum. Also wähle xy ∈ f−1({y}) und definiere: g(y) = xy , dann gilt (f ◦g)(y) =f(xy) = y, also insgesamt f ◦ g = idY .

Bemerkung. Man benötigt hierbei das Auswahlaxiom.

Wenn f nicht surjektiv ist, dann ∃ y0 ∈ Y ∀x ∈ X : f(x) 6= y0. Wenng(y0) = x0 ∈ X , dann folgt (f ◦ g)(y0) = f(x0) 6= y0, also kann f ◦ g nichtidY sein. Es gibt also kein g mit dieser Eigenschaft.Die Rückrichtung ist auch hier klar: Da g eine Abbildung ist, wird jedem y ∈ Yein x ∈ X zugeordnet, sodass f(x) = y gilt.

(c) Illustration

Man dreht die Pfeile einfach um.Der formale Beweis stützt sich auf (a) und (b).

1.1.7 Menge aller Abbildungen

Wie viele Abbildungen von X nach Y gibt es?Wenn X,Y endliche Mengen sind, dann kommt es nur auf die Anzahl der Elementevon X und Y an.

Sei [n] = {1, 2, 3, . . . , n} für ein n ∈ N.Wie viele Abbildungen von [n] nach [m] gibt es?Antwort: mn.

Definition 1.4. Daraus „ergibt“ sich die symbolische Schreibweise Y X := {f : X → Y }für die Menge aller Abbildungen von X nach Y .

1.1.8 Produkte von Mengen

Definition 1.5. Für zwei Mengen X,Y wird das kartesische Produkt von X mit Ydefiniert als

X × Y := {(x, y) | x ∈ X, y ∈ Y }

8

Page 9: Lineare Algebra I Mitschrift

Intutiv wird definiert

Xn := X ×X × . . .×X︸ ︷︷ ︸n-mal

(Wir lassen die Klammern weg.)

= {(x1, x2, . . . , xn) | xi ∈ X ∀ i = 1, . . . , n}={(xi)i∈[n] : xi ∈ X

}= {f : [n]→ X}

1.2 Äquivalenzrelationen1.2.1 Relationen

Definition 1.6. Eine Relation R ist eine Teilmenge von X × Y , also

R ⊆ X × Y

Man schreibt xRy um zu kennzeichnen: (x, y) ∈ R.

1.2.2 Äquivalenzrelationen

Definition 1.7. Äquivalenzrelationen sind Relationen ∼⊆ X × X mit den Eigen-schaften

A1 Reflexivität: x ∼ x ∀x ∈ X ,

A2 Symmetrie: x ∼ y ⇔ y ∼ x ∀x, y ∈ X und

A3 Transitivität: x ∼ y ∧ y ∼ z ⇒ x ∼ z ∀x, y, z ∈ X .

1.2.3 Beispiele

• „=“ - Gleichheitsrelation auf einer Menge

• X als eine Gruppe von Personen, ∼ - Gleichaltrigkeit

1.2.4 Partitionen

Definition 1.8. Eine Partition einer Menge X ist eine Zerlegung von X in paarweisedisjunkte Teilmengen (Xi)i∈I , d.h.

•⋃i∈I Xi = X

• Xi ∩Xj = ∅ i, j ∈ I, i 6= j

• Xi 6= ∅ ∀ i ∈ I

Satz 1.2.1. Sei X eine Menge. Partition von X und Äquivalenzrelationen entsprecheneinander.

Beweis. Sei (Xi)i∈I eine Partition. Wir definieren:

x ∼ y ⇐⇒ ∃ i ∈ I : x ∈ Xi ∧ y ∈ Xi

Zu zeigen: ∼ ist eine Äquivalenzrelation:

9

Page 10: Lineare Algebra I Mitschrift

A1 Sei x ∈ X , dann gilt x ∈ Xi ⇔ x ∈ Xi. X

A2 Seien x, y ∈ X , dann gilt (x ∈ Xi ∧ y ∈ Xi)⇔ (x ∈ Xi ∧ y ∈ Xi). X

A3 Seien x, y, z ∈ X und gelte (x ∈ Xi ∧ y ∈ Xi) ∧ (y ∈ Xj ∧ z ∈ Xj). Darausfolgt wegen der Disjunktheit der Klassen Xi = Xj , also x ∈ Xj ∧ z ∈ Xj .X

Definition 1.9. Sei andererseits ∼ eine Äquivalenzrelation auf X , dann wird definiert

[x] = {y ∈ X | x ∼ y}

ist die Äquivalenzklasse von x. x wird Repräsentant der Klasse genannt.

Zu zeigen: {[x] | x ∈ X} ist eine Partition von X .⋃x∈X

[x] = X X

Seien x, z ∈ X mit x 6= z. Es gilt entweder: x ∼ z und damit x ∼ y ∀ y ∈ [z] undz ∼ y ∀ y ∈ [x], also [x] = [z]; oder es gilt x 6∼ z, also [x] ∩ [z] = ∅: Angenommender Schnitt wäre nicht leer, dann gäbe es ein y, für das gilt x ∼ y und y ∼ z. Wegender Transitivität gilt dann auch x ∼ z, Widerspruch.Die Menge der Äquivalenzklassen bildet eine Partition auf X .

10

Page 11: Lineare Algebra I Mitschrift

2 Gruppen

2.1 Definitionen2.1.1 Innere Verknüpfung

Definition 2.1. Eine Gruppe ist ein Paar (G, ◦), wobeiG eine Menge und ◦ eine (innerezweistellige) Operation auf G ist, also eine Abbildung G×G→ G.Statt ◦((g, h)) = r für drei Elemente g, h, r ∈ G schreiben wir g ◦ h = r.

2.1.2 Beispiele

◦ : XX ×XX → XX

(f, g) 7→ f ◦ g

Verknüpfung von Abbildungen von X nach X ((XX , ◦) ist keine Gruppe!)

+ : Z× Z→ Z(a, b) 7→ a+ b

2.1.3 Gruppe

Definition 2.2. (G, ◦) ist eine Gruppe, wenn gilt

G1 Assoziativgesetz: (a ◦ b) ◦ c = a ◦ (b ◦ c) ∀ a, b, c ∈ G

G2 Existenz eines (links-)neutralen Elements: ∃ e ∈ G : e ◦ a = a ∀ a ∈ A

G3 Existenz von (links-)inversen Elementen: ∃ a−1 ∈ G : a−1 ◦ a = e ∀ a ∈ A.

(G, ◦) ist kommutative Gruppe (abelsche Gruppe), wenn gilt:

a ◦ b = b ◦ a ∀ a, b ∈ G

2.1.4 Beispiele

• (Z,+) ist eine Gruppe:

– neutrales Element: 0

– Inverses von a ∈ Z: −a

• (N,+) ist keine Gruppe, weil 1 kein Inverses hat.

• (Z,−) ist keine Gruppe, weil „−“ nicht assoziativ ist.

• (Q,+), (R,+) ⊇ (Z,+).

• (Q+, ·) ist ein Gruppe:

– neutrales Element: 1

– Inverses von a ∈ Q+: 1a

11

Page 12: Lineare Algebra I Mitschrift

· -1 1-1 1 -11 -1 1

• ({−1, 1} , ·) ist eine Gruppe. Gruppentafel

– Es gilt {−1, 1} ⊂ Q∗, wodurch sich die Assoziativität von (Q∗, ·) über-trägt.

– Wie man aus der Tafel ablesen kann, gilt: 1 · (−1) = (−1), 1 · 1 = 1, alsoist 1 neutrales Element.

– Wie man aus der Tafel ablesen kann, gilt:

(−1) · (−1) = 1⇒ (−1)−1 = (−1)

1 · 1 = 1⇒ 1−1 = 1

• D4 - Diedergruppe der Ordnung 4, Symmetriegruppe des Quadrats

Die Elemente dieser Gruppe sind die Symmetrien, d.h. Selbstabbildungen desQuadrats:Drehungen: da - Drehung der Ecke 0 auf die Ecke a:

– d0 - Drehung um 90◦ (in mathematisch positive Richtung)

– d1 - Drehung um 180◦

– d2 - Drehung um 270◦

– d3 - Drehung um 270◦

(Achsen-)Spiegelungen: sa - Spiegelung der Ecke 0 auf die Ecke a: s0, s1, s2, s3Jede Symmetrie kann man als Permutation der Ecken beschreiben, z.B.

d1 =(

0 1 2 31 2 3 0

)Die Operation ist die Hintereinanderausführung der Abbildungen.

• D6 - Diedergruppe der Ordnung 6, Symmetriegruppe des regelmäßigen Sechs-ecks

12

Page 13: Lineare Algebra I Mitschrift

Behauptung: D6 = ({da, sa | a ∈ {0, . . . , 5}} , ◦) ist eine Gruppe.

Beweis. Seien die Bezeichnungen wie oben gegeben. Im Folgenden wird in denIndizes immer modulo 6 gerechnet.

– Assoziativität: Verknüpfungen von Abbildungen sind immer assoziativ.– Einheit: d0 ist die Identität (alle Ecken werden auf sich selbst „gedreht“).– Inverse:∗ d−1

a = d−a, denn die Umkehrung einer Drehung ist die Drehung umdenselben Winkel in die Gegenrichtung.

∗ s−1a = sa, denn die Umkehrung einer Spiegelung ist die erneute Spie-

gelung an derselben Achse.– Abgeschlossenheit: Die Auswertung von 144 Produkten ist zu aufwändig,

weswegen man systematisch vorgeht:1. da ◦db = da+b - Klar, Hintereinanderausführung von Drehung ist eine

Drehung um die Summe der einzelnen Winkel.2. da◦s0 = sa - Eine Spiegelung sa kehrt generell die Durchlaufrichtung

der Ecken um und lässt die Zählung bei a beginnen. s0 kehrt lediglichdie Durchlaufrichtung um, die anschließende Drehung da dreht eigent-lich −a auf 0, wegen der umkehrten Reihenfolge dreht sie aber a auf0, lässt die Zählung bei immer noch umgekehrter Reihenfolge also beia beginnen.

3. s0 ◦ da = s−a - da dreht 0 auf a, s0 kehrt die Durchlaufreihenfolgeum, also liegt 0 nun auf der Ecke, die am Anfang −a hieß.

4. s0 ◦ s0 = d0 - Klar.Unter Verwendung von 1.-4. kann man nachrechnen:

da ◦ sb = da ◦ (db ◦ s0) = (da ◦ db) ◦ s0 = da+b ◦ s0 = sa+b

sa ◦ db = (da ◦ s0) ◦ db = da ◦ (s0 ◦ db) = da ◦ s−b = sa−b

sa ◦ sb = sa ◦ (db ◦ s0) = (sa ◦ db) ◦ s0 = sa−b ◦ s0?= da−b

13

Page 14: Lineare Algebra I Mitschrift

2.1.5 Symmetrische Gruppen

Sei X eine Menge. Sym(X) ist die Menge aller bijektiven Abbildungen von X nachX mit der Verknüpfung als Operation. Sym(X) ist eine Gruppe.

Beweis. erfolgt durch Nachweis der Gruppenaxiome:

G1 Verknüpfung von Abbildungen ist immer assoziativ.

Beweis. Seien π, σ, τ Abbildungen von X nach Y und i ∈ X . Dann gilt

((π ◦σ)◦τ)(i) = (π ◦σ)(τ(i)) = π(σ(τ(i))) = π((σ ◦τ)(i)) = (π ◦ (σ ◦τ))(i)

G2 idX ist das neutrale Element, denn es gilt für ein π ∈ Sym(X)

idX ◦π = π

G3 Zu jeder bijektiven Abbildung f gibt es Laut Lemma 1.2 eine Abbildung g :X → X (also g ∈ Sym(X)) mit g ◦ f = idX .

Ab S3 sind symmetrische Gruppen nicht mehr kommutativ, z.B. ist(1 2 31 3 2

)◦(

1 2 32 1 3

)=(

1 2 33 1 2

)aber (

1 2 32 1 3

)◦(

1 2 31 3 2

)=(

1 2 32 3 1

)Satz. Sn hat genau n! Elemente.

Beweis. Es gibt n! Permutationen von n Elementen.

2.1.6 Beispiel

Sei X = [5].Eine bijektive Abbildung [5]→ [5] können wir in 2-Zeilennotation beschreiben.Seien

π =(

1 2 3 4 54 2 1 5 3

), σ =

(1 2 3 4 54 5 1 2 3

)Dann ist

π ◦ σ =(

1 2 3 4 55 3 4 2 1

)Das neutrales Element ist

id[5] =(

1 2 3 4 51 2 3 4 5

)

14

Page 15: Lineare Algebra I Mitschrift

Das Inverse von

π =(

1 2 3 4 5z1 z2 z3 z4 z5

)ist

π−1 =(z1 z2 z3 z4 z51 2 3 4 5

)2.1.7 Eigenschaften von Gruppen

Satz 2.1.1. Sei (G, ◦) eine Gruppe.

i) Das neutrale Element ist eindeutig.

ii) Das (links-)neutrale Element ist auch rechtsneutral, d.h. für alle g ∈ G gilt e◦g =g ◦ e = g.

iii) Die inversen Elemente sind eindeutig.

iv) Das (links-)inverse Element eines Elementes g ∈ G ist auch rechtsinvers, d.h. esgilt g−1 ◦ g = g ◦ g−1 = e.

v) Für a, b ∈ G gilt (a ◦ b)−1 = b−1 ◦ a−1.

vi) Für alle a ∈ G: (a−1)−1 = a.

vii) Für alle a, b, c ∈ G: a ◦ b = a ◦ c ⇔ b = c.

Beweis. Sei (G, ◦) eine Gruppe und a, b, c ∈ G und e neutrales Element von G.

ii) Sei b = a−1 und c = b−1, d.h. nach G3 b ◦ a = e und c ◦ b = e. D.h.

c ◦ e = c ◦ (b ◦ a) G1= (c ◦ b) ◦ a = e ◦ a G2= a

⇒ a ◦ e = (c ◦ e) ◦ e G1= c ◦ (e ◦ e) G2= c ◦ e = a

i) Angenommen es gibt ein weiteres neutrales Element e, d.h. für alle a ∈ G gilte ◦ a = a. Dann gilt auch

eG2= e ◦ e ii)= e ◦ e = e

iv) Sei b = a−1, d.h. nach G3 b ◦ a = e. Dann gilt

b ◦ a = e ⇔b ◦ (b ◦ a) = b ◦ e = e ◦ b = (b ◦ a) ◦ b = b ◦ (a ◦ b) ⇔

b−1 ◦ (b ◦ (b ◦ a)) = b−1 ◦ (b ◦ (a ◦ b)) ⇔(b−1 ◦ b) ◦ (b ◦ a) = (b−1 ◦ b) ◦ (a ◦ b) ⇔

e ◦ (b ◦ a) = e ◦ (a ◦ b) ⇔b ◦ a = a ◦ b

D.h. aber a ◦ a−1 = a−1 ◦ a = e.

15

Page 16: Lineare Algebra I Mitschrift

iii) Angenommen b sei auch inverses Element von a, also b ◦ a = e. Dann gilt auch

(b ◦ a) ◦ a−1 = e ◦ a−1 G1⇔

b ◦ (a ◦ a−1) = e ◦ a−1 G2⇔

b ◦ (a ◦ a−1) = a−1 iv)⇔

b ◦ e = a−1 ii)⇔b = a−1

v) Es gilt

(a ◦ b) ◦ (b−1 ◦ a−1) G1= (a ◦ (b ◦ b−1)) ◦ a−1 iv)= (a ◦ e) ◦ a−1 ii)= a ◦ a−1 iv)= e

Weil es nach iii) nur genau ein inverses Element zu a ◦ b gibt, gilt (a ◦ b)−1 =b−1 ◦ b.

vi) Nach iv) gilt a ◦ a−1 = e, also ist nach G3 a invers zu a−1, also ist nach iii)(a−1)−1 = a.

vii) Es gilt

a ◦ b = a ◦ c⇔

a−1 ◦ (a ◦ b) = a−1 ◦ (a ◦ c) G1⇔

(a−1 ◦ a) ◦ b = (a−1 ◦ a) ◦ c G3⇔

e ◦ b = e ◦ c G2⇔b = c

Satz. Jede Gruppe mit maximal vier Elementen ist abelsch.

Beweis. Sei (G, ◦) eine Gruppe.Beweis durch Kontraposition: Wenn G nicht abelsch ist, dann hat G fünf oder mehrElemente.Sei also G nicht abelsch, d.h. ∃ a, b ∈ G mit a ◦ b 6= b ◦ a. Es genügt zu zeigen:e, a, b, a ◦ b, b ◦ a sind paarweise verschieden.

i) a ◦ b 6= b ◦ a nach Voraussetzung.

ii) a 6= e, b 6= e:Angenommen a = e, dann würde gelten: a ◦ b = e ◦ b G2= b

G2= b ◦ e = b ◦ a,Widerspruch zu i). Analoges bei b = e.

iii) a ◦ b 6= a:Angenommen a◦b = a, dann gilt auch a−1 ◦a◦b = a−1 ◦a, nach G3: e◦b = e,also nach G2 b = e, Widerspruch zu ii).

iv) Analoges für a ◦ b 6= b.

16

Page 17: Lineare Algebra I Mitschrift

v) a 6= b: Angenommen a = b, dann wäre auch a ◦ b = a ◦ a = b ◦ a, Widerspruchzu i).

vi) a ◦ b 6= e:Angenommen a◦b = e, dann wäre nach 2.1.7. iv) auch b◦a = e, also a◦b = b◦a,Widerspruch zu i).

vii) Analog zu iii)-vi) folgen die Ungleichungen für b ◦ a.

Da alle fünf Elemente paarweise verschieden sind, hat G mindestens diese fünf Ele-mente.

2.1.8 Untergruppen

Definition 2.3. Ist (G, ◦) eine Gruppe und H ⊆ G, dann ist (H, ◦) eine Untergruppevon G, wenn (H, ◦) eine Gruppe ist.

2.1.9 Beispiel

• (Z,+) ist eine Untergruppe von (Z,+).

• Untergruppen des D6:

– ({da | a ∈ {0, . . . , 5}} , ◦) ist eine Untergruppe, genannt die zyklische Un-tergruppe der Ordnung 6.

– ({sa, d0} , ◦)ist eine Untergruppe für a ∈ {0, . . . , 5}.

• D6 ist Untergruppe von S6 = Sym({0, . . . , 5}).

2.1.10 Untergruppenkriterium

Proposition 2.1.1. Wenn (G, ◦) eine Gruppe ist und H ⊆ G, dann ist (H, ◦) eineUntergruppe, wenn gilt

UG1 e ∈ H (äquivalent zu H 6= ∅)

UG2 Wenn h ∈ H , dann ist auch h−1 ∈ H .

UG3 Mit h, i ∈ H ist auch h ◦ i ∈ H .

Beweis. Sei (G, ◦) eine Gruppe undH ⊆ G. Wegen UG3 istH unter ◦ abgeschlossen.Weiterhin gilt

G1 Assoziativität wird vererbt: Wenn die Elemente ausH bezüglich ◦ nicht assozia-tiv wären, wären sie auch in G bezüglich ◦ nicht assoziativ.

G2 Neutrales Element ist dasselbe wie in G, das nach UG1 auch in H liegt.

G3 Die inversen Elemente sind dieselben wie in G und nach UG2 auch in H .

17

Page 18: Lineare Algebra I Mitschrift

2.2 Homomorphismen2.2.1 Definition

Seien (G, ◦) und (H, ∗) Gruppen.

Definition 2.4. Eine Abbildung ϕ : G→ H ist ein Gruppenhomomorphismus, wenngilt

ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) ∀ a, b ∈ G

2.2.2 Isomorphismus

Definition 2.5. Ist ϕ bijektiv, dann ϕ ein Isomorphismus.

2.2.3 Eigenschaften

Satz 2.2.1. Wenn ϕ : (G, ◦)→ (H, ∗) ein Homomorphismus ist, dann gilt

i) ϕ(eG) = eH

ii) ϕ(a−1) = ϕ(a)−1

Beweis. ϕ : (G, ◦)→ (H, ∗) ein Homomorphismus, dann gilt

i) ϕ(a) ∗ eH = ϕ(a) = ϕ(a ◦ eG) = ϕ(a) ∗ ϕ(eG), gekürzt: eH = ϕ(eG).

ii) ϕ(a) ∗ ϕ(a)−1 = eHi)= ϕ(eG) = ϕ(a ◦ a−1) = ϕ(a) ∗ ϕ(a−1), gekürzt:

ϕ(a)−1 = ϕ(a−1).

2.2.4 Beispiele von Homomorphismen

1. (H, ◦) eine Untergruppe von (G, ◦), dann ist die Einbettung

ϕ : H → G

ϕ(h) = h ∀h ∈ H

ein Homomorphismus.

2.

ϕ : (Z,+)→ (R+, ·)a 7→ exp(a)

ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt nach Funktionalglei-chung der Exponentialfunktion

ϕ(a+ b) = exp(a+ b) = exp(a) · exp(b)

3.

ϕ : (Z,+)→ (Z,+)a 7→ m · a

ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt

ϕ(a+ b) = m · (a+ b) D= m · a+m · b

18

Page 19: Lineare Algebra I Mitschrift

2.2.5 Bild und Kern von Homomorphismen

Definition 2.6. Sei ϕ : G→ H ein Gruppenhomomorphismus. Dann wird definiert

• im(ϕ) := {h ∈ H | ∃ g ∈ G : ϕ(g) = h} - Bild von ϕ

• ker(ϕ) := {g ∈ G | ϕ(g) = eH} - Kern von ϕ

Satz 2.2.2. Sei ϕ : G→ H ein Gruppenhomomorphismus, dann gilt

a) im(ϕ) ist eine Untergruppe von H .

b) ker(ϕ) ist eine Untergruppe von G.

Beweis. Seien also (G, ◦) und (H, ∗) Gruppen und ϕ : G → H ein Gruppenhomo-morphismus.

a) UG1 eH ∈ im(ϕ), weil gilt ϕ(eG) = eH .UG2 Sei h ∈ im(ϕ), d.h. ∃ g ∈ G : ϕ(g) = h. Dann gilt ϕ(g−1) = ϕ(g)−1 =

h−1, also h−1 ∈ im(ϕ).UG3 Seien h1, h2 ∈ im(ϕ), d.h. ∃ g1, g2 ∈ G : ϕ(g1) = h1, ϕ(g2) = h2. Dann

gilt:ϕ(g1 ◦ g2) = ϕ(g1) ∗ ϕ(g2) = h1 ∗ h2

also ist h1 ∗ h2 ∈ im(ϕ).

b) UG1 eG ∈ ker(ϕ), weil gilt ϕ(eG) = eH .UG2 Sei g ∈ ker(ϕ), d.h. ϕ(g) = eH . Dann gilt ϕ(g−1) = ϕ(g)−1 = e−1

H =eH , also g−1 ∈ ker(ϕ).

UG3 Seien g1, g2 ∈ im(ϕ), d.h. ϕ(g1) = ϕ(g2) = eH . Dann gilt:

ϕ(g1 ◦ g2) = ϕ(g1) ∗ ϕ(g2) = eH ∗ eH = eH

also ist g1 ∗ g2 ∈ ker(ϕ).

2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz

Sei ϕ : (G, ◦)→ (H, ∗) ein Gruppenhomomorphismus.AufG definieren wir eine Relation a ∼ϕ b ⇔ ϕ(a) = ϕ(b).∼ϕ ist eine Äquivalenzre-lation (weil sie über die Gleichheit definiert ist, die bekanntermaßen Äquivalenzrelationist).Diese Äquivalenzrelation induziert eine Partition von G in Klassen. Die Klasse von abezeichen wir mit [a] = {b ∈ G | ϕ(a) = ϕ(b)}.

Illustration

Auf den Klassen wird die Operation � definiert: [a] � [b] = [a ◦ b].Die Operation � ist wohldefiniert (repräsentantenunabhängig).

19

Page 20: Lineare Algebra I Mitschrift

Beweis. Seien [a] = [a′] und [b] = [b′]. Es gilt

[a] � [b] := [a ◦ b]= {g ∈ G | ϕ(g) = ϕ(a ◦ b)}= {g ∈ G | ϕ(g) = ϕ(a) ∗ ϕ(b)}= {g ∈ G | ϕ(g) = ϕ(a′) ∗ ϕ(b′)}= {g ∈ G | ϕ(g) = ϕ(a′ ◦ b′)}= [a′ ◦ b′] = [a′] � [b′]

Satz 2.2.3. (Homomorphiesatz)Wenn ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus ist, dann gilt G/kerϕ :=({[a] | a ∈ G} , �) ist eine Gruppe und

ϕ : G/kerϕ→ imϕ,

ϕ([a]) = ϕ(a)

ist ein Isomorphismus, sodass das Diagramm kommutiert(Diagramm hier einfügen ˆˆ)also G/kerϕ und imϕ isomorph („im Wesentlichen gleich“) sind.

Beweis. Sei also ϕ : (G, ◦)→ (H, ∗) ein Gruppenhomomorphismus undG/kerϕwieoben definiert.

i) Die Gruppeneigenschaften von (G/kerϕ, �) folgen im Grunde direkt aus derenGültigkeit in (G, ◦):

– G/kerϕ ist über � abgeschlossen, denn seien [a], [b] ∈ G/kerϕ beliebig,dann gilt

[a] � [b] = [a ◦ b] ∈ G/kerϕ

weil a ◦ b ∈ G.

G1 Für [a], [b], [c] ∈ G/kerϕ gilt

([a] � [b]) � [c] = [a ◦ b] � [c]= [(a ◦ b) ◦ c]= [a ◦ (b ◦ c)]= [a] � [b ◦ c]= [a] � ([b] � [c])

G2 [eG] ist neutrales Element der Struktur, denn es gilt für alle [a] ∈ G/kerϕ

[eG] � [a] = [eG ◦ a] = [a]

G3 Das Inverse von [a] ∈ G/kerϕ ist [a−1], denn es gilt

[a−1] � [a] = [a−1 ◦ a] = [eG]

ii) ϕ ist ein Homomorphismus, denn es gilt für beliebige [a], [b] ∈ G/kerϕ

ϕ([a] � [b]) = ϕ([a ◦ b]) = ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) = ϕ([a]) ∗ ϕ([b])

20

Page 21: Lineare Algebra I Mitschrift

iii) ϕ ist bijektiv:

– ϕ ist injektiv: Seien [a], [b] ∈ G/kerϕ mit ϕ([a]) = ϕ([b]), d.h. aberϕ(a) = ϕ(b), also [a] = [b].

– ϕ ist surjektiv: Sei y ∈ imϕ, d.h. ∃ a ∈ G : ϕ(a) = y, also ϕ([a]) = y.

2.2.7 Beispiele

ϕ : (D6, ◦)→ (Z2,+)ϕ(da) = 0, ϕ(sa) = 1 ∀ a ∈ {0, . . . , 5}

ist ein Homomorphismus, denn es gilt für beliebige a, b ∈ {0, . . . , 5}.

ϕ(da ◦ db) = ϕ(da+b) = 0 = 0 + 0 = ϕ(da) + ϕ(db)ϕ(da ◦ sb) = ϕ(sa+b) = 1 = 0 + 1 = ϕ(da) + ϕ(sb)ϕ(sb ◦ da) = ϕ(sa−b) = 1 = 1 + 0 = ϕ(sb) + ϕ(da)ϕ(sa ◦ sb) = ϕ(da−b) = 0 = 1 + 1 = ϕ(sa) + ϕ(sb)

ϕ ist surjektiv: im(ϕ) = Z2.ker(ϕ) = {da | a ∈ {0, . . . , 5}} ist eine Untergruppe von D6.Nach dem Homomorphisatz ist D/kerϕ isomorph zu Z2.

• Es ist (Zm,+) = ({[i] : i ∈ {0, . . . ,m− 1}} ,+m) die Restklassengruppe mo-dulo m. Die in der Definition verwendeten i heißen kanonische Repräsentantender Klassen.

ϕ : Z→ Zmi 7→ [i]

ker(ϕ) = [0] = {x ∈ Z | ∃ y ∈ Z : x = m · y} = m · Z, also gilt nach Homomorphi-satz Z/mZ ∼= Zm.

21

Page 22: Lineare Algebra I Mitschrift

3 Ringe, Körper, Polynome

3.1 Definitionen: Ring und Körper3.1.1 Ringe

Definition 3.1. (R,+, ·) ist ein Ring, wenn gilt

R1 (R,+) ist eine abelsche Gruppe.

R2 · ist eine assoziative Operation R×R→ R.

R3 Es gelten die Distributivgesetze für beliebige a, b, c ∈ R:

a · (b+ c) = a · b+ a · c(a+ b) · c = a · c+ b · c

(R,+, ·) heißt kommutativ, wenn für beliebige a, b ∈ R gilt: a · b = b · a.(R,+, ·) ist ein Ring mit Eins, wenn ∃ 1 ∈ R mit 1 · a = a · 1 = a.Bemerkung. Ist R ein Ring, so bezeichnet man das neutrale Element bezüglich + mit0.Es gilt: 0 · a = a · 0 = 0.

Beweis.a · 0 = a · (0 + 0) D= a · 0 + a · 0⇔ 0 = a · 0

0 · a = 0 folgt analog.

3.1.2 Beispiele

1. (Z,+, ·) ist ein kommutativer Ring mit Eins.

2. (R,+, ·) ist ein kommutativer Ring mit Eins.

3. Sei R = {f : [0, 1]→ R} mit den Operationen + und ·, die wie folgt definiertsind

(f + g)(x) := f(x) + g(x) ∀x ∈ [0, 1](f · g)(x) := f(x) · g(x) ∀x ∈ [0, 1]

(R,+, ·) ist ein kommutativer Ring mit Eins. Aber es gibt nicht für alle Elementevon (R,+, ·) multiplikative Inverse.

4. (Zm,+, ·) ist ein kommutativer Ring mit Eins.

5. (2Z,+, ·) ist ein kommutativer Ring ohne Eins, denn 1 6∈ 2Z.

6. (Rn×n,+, ·) - der Ring der quadratischen reellen Matrizen - ist ein Ring mitEins, wobei

Rn×n :=

a11 a12 . . . a1n

a21 a22 . . . a2n

......

. . ....

an1 an2 . . . ann

| aij ∈ R ∀ i, j = 1, . . . , n

={

(aij)i,j=1,...,n | aij ∈ R ∀ i, j = 1, . . . , n}

22

Page 23: Lineare Algebra I Mitschrift

und die Addition komponentenweise:

(aij)i,j=1,...,n + (bij)i,j=1,...,n = (aij + bij)i,j=1,...,n

und die Multiplikation wie folgt definiert ist

(aij)i,j=1,...,n + (bij)i,j=1,...,n =

(n∑k=1

aik · bik

)i,j=1,...,n

Dann ist (0)i,j=1,...,n das neutrale Element der Multiplikation, entsprechend(−aij)i,j=1,...,n das additive Inverse zu (aij)i,j=1,...,n.

1 0 . . . 00 1 . . . 0...

.... . .

...0 0 . . . 1

ist das neutrale Element der Multiplikation.Der Ring ist ab n = 2 nicht kommutativ, denn es gilt beispielsweise(

1 10 1

)·(

1 01 1

)=(

2 11 1

)6=(

1 11 2

)·(

1 01 1

3.1.3 Nullteilerfreiheit

Definition 3.2. Sei (R,+, ·) ein Ring. R heißt nullteilerfrei, falls gilt

a · b = 0⇒ a = 0 ∨ b = 0 ∀ a, b ∈ R

3.1.4 Gegenbeispiele

• (R2×2,+, ·) ist nicht nullteilerfrei, denn es gilt(1 00 0

)·(

0 00 1

)=(

0 00 0

)• (Z6,+, ·) ist nicht nullteilerfrei, denn es gilt

[2] · [3] = [2 · 3] = [6] = [0]

• RR,+, ·) ist nicht nullteilerfrei, denn für

f(x) :=

{1, x = 10, x 6= 1

g(x) :=

{0, x = 11, x 6= 1

gilt (f · g)(x) = 0 ∀x ∈ R.

3.1.5 Unterringe

Definition 3.3. U ist ein Unterring von (R,+, ·), wenn (U,+) Untergruppe von (R,+)und · : U × U → U abgeschlossen ist.

23

Page 24: Lineare Algebra I Mitschrift

3.1.6 Ringhomomorphismen

Definition 3.4. ϕ : (R,+, ·)→ (S,⊕,�) ist ein Ringhomomorphismus, wenn gilt

ϕ(a+ b) = ϕ(a)⊕ ϕ(b)ϕ(a · b) = ϕ(a)� ϕ(b)

3.1.7 Körper

Definition 3.5. (K,+, ·) ist ein Körper, wenn gilt

K1 (K,+) ist eine abelsche Gruppe.

K2 (K∗, ·) ist eine abelsche Gruppe.

K3 Distributivgesetz, d.h. für alle a, b, c ∈ K gilt

a · (b+ c) = a · b+ a · c

3.1.8 Notation

• 0 - neutrales Element von (K,+)

• 1 - neutrales Element von (K, ·)

• −a - Inverses von a in (K,+)

• 1a = a−1 - Inverses von a in (K∗, ·)

3.1.9 Eigenschaften von Körpern

Satz. Sei (K,+, ·) ein Körper. Es gilt

i) 0 6= 1, weil 1 ∈ K∗ und 0 6∈ K∗.

ii) a · b = a ⇒ a = 0 ∨ b = 0, weil (K∗, ·) abgeschlossen ist (Nullteilerfreiheit).

iii) a · (−b) = −(a · b), denn es gilt

a·b+a·(−b) D= a·(b+(−b)) = a·0 = 0 = a·b+(−(a·b))⇔ a·(−b) = −(a·b)

iv) (−a) · (−b) = a · b, folgt aus iii).

3.1.10 Beispiele

1. (R,+, ·) ist ein Körper.

2. (Q,+, ·) ist ein Körper.

3. (Z,+, ·) ist kein Körper, nur 1 und −1 habe multiplikative Inverse.

4. Der 3. Beispielring ist kein Körper, auch hier fehlen Inverse.

5. (C,+, ·) ist ein Körper.

6. (Z2,+, ·) ist ein Körper.

24

Page 25: Lineare Algebra I Mitschrift

3.1.11 Der Körper der komplexen Zahlen

Motivation N fehlt bezüglich + die Inversen, also erweitert man die Menge der na-türlichen Zahlen auf die Menge der ganzen Zahlen Z. Diesen wiederum die multipli-kativen Inversen, also konstruiert man Q. (Q,+, ·) ist zwar ein Körper, man kann abergewisse Gleichungen nicht in ihm lösen, z.B. x2 = 2. Mit Hilfe von Cauchy-Folgen,Dedekind’schen Schnitten, Intervallschachtelungen oder ähnlichen Objekten/Verfahrenvervollständigt man Q zu R (siehe Analysis).Jedoch gibt es immer noch Gleichungen, die keine Lösung in R haben, z.B. x2 = −1.Also definiert man eine neue Zahl i als eine Lösung ebendieser Gleichung x2 = −1.Dann ist i2 = −1 und (−i)2 = −1, wodurch man die Anordnung des Körpers verliert.Nun ist jede quadratische Gleichung lösbar in C, d.h. ∃ z ∈ C : z2 + pz + q = 0.

Definition 3.6. Die Menge der komplexen Zahlen ist definiert als

C := {a+ b · i | a, b ∈ R}

Jede komplexe Zahl z hat also die Gestalt z = a+b · i für a, b ∈ R. a heißt der Realteilvon z, man schreibt Re(z) = a, und b Imaginärteil, also Im(z) = b.

Wie man (relativ) leicht nachprüfen kann, ist (C,+, ·) ein Körper (siehe 2. Analysis-Übungsblatt, 3. Aufgabe).

Geometrische Interpretation Der Zahlenstrahl der reellen Zahlen wird zur Gauß’schenZahlenebene:

Man kann also sagenC ∼= R2

Und man schreibtz = a+ bi = r · cosϕ+ i · r · sinϕ

wobei r die Länge des Pfeils ist, nach Pythagoras also

r =√a2 + b2 =: |z|

(a, b) heißen die kartesischen Koordinaten von z und (r, ϕ) die Polarkoordinatenvon z.

Rechnen mit komplexen Zahlen Es giltfür die Addition:

(a+ bi) + (c+ di) = (a+ c) + (b+ d)i

25

Page 26: Lineare Algebra I Mitschrift

Veranschaulichung:

und für die Multiplikation

(a+ bi) · (c+ di) = (a · c− b · d) + (a · d+ b · c)i

bzw.

(r1 · cosϕ1 + i · r1 · sinϕ1) · (r2 · cosϕ2 + i · r2 · sinϕ2)= r1 · r2 · [(cosϕ1 · cosϕ2 − sinϕ1 · sinϕ1) + i · (cosϕ1 · sinϕ2 + sinϕ1 · ϕ2)]= r1 · r2 · [cos(ϕ1 + ϕ2) + i · sin(ϕ1 + ϕ2)]

Veranschaulichung:

Wenn z = a+ bi, dann heißt a− bi = z komplex-konjugierte Zahl von z.Es gilt für alle z, z′ ∈ C

•12

(z + z) =12

(Re(z) + Im(z) · i+ Re(z)− Im(z) · i) =12

(2Re(z)) = Re(z)

12i

(z − z) =12i

(Re(z) + Im(z) · i− Re(z) + Im(z) · i) =12i

(2Im(z) · i) = Im(z)

26

Page 27: Lineare Algebra I Mitschrift

•z · z = (a+ bi) · (a− bi) = a2 − abi+ abi+ b2 = a2 + b2 = |z|2

z + z′ = z + z′

z · z′ = z · z′

•|z|+ |z′| ≤ |z + z′|

Beweis.

|z + z′|2 = (z + z′) · (z + z′)

= (z + z′) ·(z + z′

)= z · z + z · z′ + z′ · z + z′ · z′

= |z|2 + 2Re(z · z′) + |z′|2

≤ |z|2 + 2 |z · z′|+ |z′|2

= (|z|+ |z′|)2

Durch Wurzelziehen folgt die Behauptung

•1z

=z

z · z=

z

|z|2

3.2 Polynome3.2.1 Definition

Definition 3.7. Ein Polynom mit Koeffizienten in einem Körper K ist ein Ausdruck

f(x) = a0 + a1 · x+ . . .+ an · xn =n∑k=0

ak · xk, wobei n ∈ N0, ai Koeffizienten und

x Unbestimmte heißen. an 6= 0 heißt Leitkoeffizent.

(Man kann „Körper“ auch gegen „kommutativer Ring mit Eins“ austauschen undspäter konkretisieren.)

Bemerkung. Zwar kann man für x ein Element aus k einsetzen und so eine Abbildungf : K → K definieren, aber Polynome und Polynomabbildungen sind zu unterschei-den.

3.2.2 Beispiel

f(x) = x2 g(x) = x3

f, g sind Polynome und für jeden Körper gilt f 6= g.Über K = R sind f und g verschiedene Abbildungen, für K = Z2 sind f, g allerdingsgleich als Abbildungen, denn es gilt

f(0) = 0 = g(0), f(1) = 1 = g(1)

27

Page 28: Lineare Algebra I Mitschrift

3.2.3 Polynomringe

Definition 3.8. Sei K[x] die Menge alle Polynome mit Koeffizienten in K in der Un-bestimmten x.Seien f, g ∈ K[x] mit

f =n∑k=0

ak · xk, g =m∑k=0

bk · xk

für m ≥ n, dann definiere eine Addition wie folgt:

f + g :=m∑k=0

(ak + bk) · xk

wobei alle Koeffizienten ai mit i > n als 0 angenommen werden.Die Multiplikation wird definiert durch

f · g :=n+m∑k=0

ck · xk

wobei

ck := a0 · bk + a1 · bk−1 + . . .+ ak · 0 =k∑i=0

ai · bk−i

(Die Multiplikation ist die gewohnte Multiplikation von Polynomen.)

Satz 3.2.1. (K[x],+, ·) ist ein kommutativer Ring mit Eins.

(Auch hier kann man immer „Körper“ K gegen „kommutativer Ring mit Eins“ Raustauschen.)

Beweis. Sei K ein Körper und + und · auf K[x] wie oben definiert. Es sind folgendePunkte zu zeigen:

R1 (K[x],+) ist eine abelsche Gruppe, d.h.

– Abgeschlossenheit: Kann direkt aus der Definition abgelesen werden.

– Assoziativität: Leicht einzusehen, da die Polynome „komponentenweise“addiert werden, d.h. die Koeffizenten der Unbestimmten gleichen Gradesaddiert werden.

– Kommutativität: Ebenso.

– Existenz eines neutralen Elements: Das Nullpolynom o = 0 ist neutralesElement der Addition, wie man leicht einsieht.

– Existenz von Inversen: Sei f ∈ K[x] mit f =n∑k=0

ak · xk, dann sei −f :=n∑k=0

(−ak) · xk, und es gilt

f + (−f) =n∑k=0

(ak + (−ak)) · xk =n∑k=0

0 · xk = 0 = o

28

Page 29: Lineare Algebra I Mitschrift

R2* · ist eine kommutative, assoziative Operation mit einem Einselement in K[x],d.h.

– Abgeschlossenheit: Kann man aus der Definition ablesen. Seien f, g ∈K[x] wie in der Definition gegeben, dann sind die ck der Definition ge-wiss Körperelemente, der Leitkoeffzient ist cm+n 6= 0 (siehe Gradformel,Definition 3.9 unten).

– Assoziativität: Seien a, b, c ∈ K[x] mit

a =n1∑i=0

ai · xi, b =n2∑i=0

bi · xi, c =n3∑i=0

ci · xi

wobei n1, n2, n3 ∈ N0, dann gilt

a · (b · c) = a ·

(n2+n3∑k=0

(k∑i=0

bi · ck−i

)· xk)

=n1+(n2+n3)∑

k=0

(k∑

m=0

am ·k−m∑i=0

bi · ck−m−i

)· xk

=(n1+n2)+n3∑

k=0

(k∑

m=0

am ·k∑

i=m

bi−m · ck−i

)· xk

=(n1+n2)+n3∑

k=0

(k∑i=0

i∑m=0

am · (bi−m · ck−i)

)· xk

A=(n1+n2)+n3∑

k=0

(k∑i=0

(i∑

m=0

am · bi−m

)· ck−i

)· xk

=

(n1+n2∑k=0

(k∑

m=0

am · bk−m

)· xk)·

(n3∑k=0

ck · xk)

=

[(n1∑k=0

ak · xk)·

(n2∑k=0

bk · xk)]·

(n3∑k=0

ck · xk)

= (a · b) · c

– Kommutativität: Seien a, b wie oben, dann gilt

a · b =n+m∑k=0

(k∑i=0

ai · bk−i

)· xk

K=m+n∑k=0

(k∑i=0

bk−i · ai

)· xk

=m+n∑k=0

(k∑i=0

bi · ak−i

)· xk

= b · a

– Existenz einer Eins: Es ist 1K[x] = 1K , wie man leicht einsieht.

29

Page 30: Lineare Algebra I Mitschrift

R3 Distributivgesetz: Seien a, b, c wie oben gegeben, dann gilt

a · (b+ c) = a ·

max{n2,n3}∑k=0

(bk + ck) · xk

=n1+max{n2,n3}∑

k=0

(k∑i=0

ai · (bk−i + ck−i)

)· xk

D=n1+maxn2,n3∑

k=0

(k∑i=0

ai · bk−i + ai · ck−i

)· xk

=n1+max{n2,n3}∑

k=0

(k∑i=0

ai · bk−i +k∑i=0

ai · ck−i

)· xk

=n1+max{n2,n3}∑

k=0

(k∑i=0

ai · bk−i

)· xk +

(k∑i=0

ai · ck−i

)· xk

=n1+max{n2,n3}∑

k=0

(k∑i=0

ai · bk−i

)· xk +

n1+max{n2,n3}∑k=0

(k∑i=0

ai · ck−i

)· xk

Wenn k > n1 + n2, dann ist, wenn i > n1, ai = 0, oder, wenn i < n1, d.h.k− i > n2, bi = 0. Analoges für k > n1 +n3 und ai, ci. Da max {n2, n3} ≥ n2

und max {n2, n3} ≥ n3 ist also

n1+max{n2,n3}∑k=n1+n2

(k∑i=0

ai · bk−i

)· xk = 0

bzw.n1+max{n2,n3}∑

k=n1+n3

(k∑i=0

ai · ck−i

)· xk = 0

Also gilt

. . . =n1+n2∑k=0

(k∑i=0

ai · bk−i

)· xk +

n1+n3∑k=0

(k∑i=0

ai · ck−i

)· xk

= (a · b) + (a · c)

Bemerkung. Die Operationen +, · für Polynome und für Polynomabbildungen sindverträglich. D.h., wenn f, g ∈ K[x], h = f + g und i = f · g, dann gilt h(α) =f(α) + g(α) und i(α) = f(α) · g(α) für alle α ∈ K.

3.2.4 Gradformel

Definition 3.9. Der Grad deg(f) des Polynoms f ∈ K[x] ist n = max {i ∈ N0 : ai 6= 0}.Der Grad des Nullpolynoms wird definiert als deg(o) = −∞.

(Spätestens ab hier müssen die Polynome über Körpern definiert werden, sonst wirddie folgende Bemerkung falsch.)

30

Page 31: Lineare Algebra I Mitschrift

Proposition 3.2.1. Für f, g ∈ K[x] gilt

• deg(f + g) ≤ max {deg(f),deg(g)}

• deg(f · g) = deg(f) + deg(g)

Beweis. Wenn f, g ∈ K[x] mit deg(f) = n und deg(g) = m, dann ist per Definition

deg(f + g) = deg(max{n,m}∑

k=0

(ak + bk) · xk) ≤ max {deg(f),deg(g)}

und der n+m-te Koeffizient des Produkts f · g:

cn+m =n+m∑i=0

ai · bn+m−i = an︸︷︷︸6=0

· bm︸︷︷︸6=0

6= 0

denn für i < n ist n+m− i > m, d.h. bm = 0, und für i > n ist ai = 0.

3.2.5 Nullteilerfreiheit

Folgerung. Der Ring K[x] ist nullteilerfrei, d.h. für alle f, g ∈ K[x] mit f 6= o undg 6= o gilt

f · g 6= o

Beweis. Seien f, g ∈ K[x] mit f 6= o und g 6= o, d.h. deg(f) ≥ 0 und deg(g) ≥ 0,dann gilt nach Gradformel

deg(f · g) = deg(f) + deg(g) ≥ 0

3.2.6 Polynomdivision

Zwar gibt es in K[x] keine multiplikativen Inversen, aber wie im Ring (Z,+, ·) derganzen Zahlen gibt es eine Division mit Rest.

Satz 3.2.2. Sind f, g ∈ K[x] mit g 6= o, dann gibt es eindeutig bestimmte q, r ∈ K[x]mit

f = q · g + r

wobei deg(r) < deg(g).

Beweis. Es wird zunächst die Eindeutigkeit gezeigt. Angenommen f = q1 · g+ r1 mitdeg(r1) < deg(g) und f = q2 · g + r2 mit deg(r2) < deg(g), dann gilt

q1 · g + r1 = q2 · g + r2 ⇔ (q1 − q2) · g = r2 − r1

Wenn q1 − q2 6= o, dann ist nach Gradformel deg((q1 − q2) · g) = deg(q1 − q2) +deg(g) ≥ deg(g), während deg(r2 − r1) < deg(g), was einen Widerspruch darstellt.Also muss q1− q2 = o gelten, dann ist q1 = q2 und (q1− q2) · g = o · g = o, also auchr2 − r1 = o, d.h. r2 = r1.Wenn eine solche Darstellung existiert, dann ist sie also eindeutig. Zum Beweis derExistenz:

31

Page 32: Lineare Algebra I Mitschrift

Es wird o.B.d.A. angenommen, dass deg(f) ≥ deg(g), ansonsten wählt man q = ound r = f , dann ist q · g+ r = o · g+ f = o+ f = f und deg(r) = deg(f) < deg(g).Induktion über deg(f):InduktionsanfangAus deg(f) = 0 folgt deg(g) = 0, also f, g ∈ K. Dann gibt es aber g−1 ∈ K mitg−1 ·g = 1, also wählt man q = f ·g−1 und r = o, dann gilt q ·g+r = (f ·g−1)·g+o =f .

InduktionsschrittSei die Aussage nun für alle Polynome mit einem Grad kleiner als deg(f) bewiesen.Sei n := deg(f) und m := deg(g), a der Leitkoeffizent von f und b der Leitkoeffizentvon g, dann betrachte das Polynom

f − a

b· xn−m · g

das so konstruiert ist, dass der Leitkoeffizient von f sich hinweghebt, für das also gilt

deg(f − a

b· xn−m · g) < deg(f)

Auf dieses Polynom wird die Induktionsvoraussetzung angewendet, d.h.

∃ q′, r : f − a

b· xn−m · g = q′ · g + r

mit deg(r) < deg(g),umgestellt

∃ q′, r : f = (q′ +a

b· xn−m) · g + r

womit man die gewünschte Darstellung erhält.

Ein Polynom g teilt ein Polynom f , wenn das Restpolynom bei der Polynomdivi-sion das Nullpolynom ist.

3.2.7 Beispiel

Wenn f = 2x3 + x− 5 und g = x2 + 1 mit f, g ∈ Q[x], dann gilt

(2x3 +x −5) : (x2 + 1) = 2x+ −x−5x2+1

−2x3 −2x−x −5

3.2.8 Folgerungen, Nullstellen

Folgerung 3.2.8.1. (Satz von Ruffini)Ist α ∈ K eine Nullstelle (Wurzel) von f ∈ K[x], d.h. f(α) = 0, dann ist f =q · (x − α) für ein q ∈ K[x] (sprich: der Linearfaktor (x − α) kann abgespaltenwerden).

Beweis. Nach dem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈K[x] mit

f = q · (x− α) + r

wobei deg(r) < deg(x− α) = 1, also r ∈ K.Einsetzen ergibt: 0 = f(α) = q(α) · (α − α) + r(α) = q(α) · 0 + r(α) = r(α), alsor(α) = 0 und damit r = o.

32

Page 33: Lineare Algebra I Mitschrift

Folgerung 3.2.8.2. Ein Polynom vom Grad n hat höchstens n Nullstellen (unabhängigvon Körper).

Beweis. Induktion nach dem Grad von f :InduktionsanfangIst deg(f) = 0, dann hat f keine Nullstelle und die Folgerung ist trivialerweise richtig.

InduktionsschrittSei die Folgerung nun für alle Polynome mit Graden kleiner als deg(f) =: n bewiesen.Wenn f die Nullstelle α ∈ K hat, dann gilt nach Folgerung 1

f = q · (x− α)

mit deg(f) = deg(g) · deg(x − α) nach Gradformel, also deg(g) = n − 1. NachInduktionsvoraussetzung hat q höchstens n − 1 Nullstellen, also hat f höchstens nNullstellen.

Folgerung 3.2.8.3. Ist K unendlich, dann gilt:f = o ∈ K[x] ist das einzige Polynom mit f(α) = 0 für alle α ∈ K.

Beweis. Jedes Polynom f ∈ K[x] mit deg(f) = n ∈ N hat nach Folgerung 2 höchs-tens n Nullstellen, d.h. es gibt höchstens n Elemente α ∈ K mit f(α) = 0. Wenn esalso ein Polynom f ungleich dem Nullpolynom gäbe mit f(α) = 0 für alle α ∈ K,dann gibt es notwendigerweise nur deg(f) ∈ N Elemente in K.

Folgerung 3.2.8.4. Es gilt auch die Umkehrung: In jedem endlichen Körper gibt es einPolynom f 6= o mit f(α) = 0 für alle α ∈ K.

Beweis. Sei K = {k1, k2, . . . , kn}, dann ist

f = (x− k1) · (x− k2) · . . . · (x− kn)

wegen der Nullteilerfreiheit nicht o, also das gesuchte Polynom.

Folgerung 3.2.8.5. Ist K unendlich, dann sind Polynome f, g ∈ K[x] mit f(α) =g(α) für alle α ∈ K auch als Polynome gleich.

Beweis. Aus f(α) = g(α) folgt f(α)−g(α) = 0, also (f−g)(α) = 0 für alle α ∈ K.In einem unendlichen Körper gilt dies aber nur für das Nullpolynom, also ist f−g = o,d.h. f = g.

3.2.9 Fundamentalsatz der Algebra

Satz 3.2.3. Jedes Polynom f ∈ C[x] mit deg(f) ≥ 1 hat mindestens eine Nullstelle.

Folgerung. Jedes Polynom f ∈ C[x] zerfällt in Linearfaktoren:

f = α · (x− α1) · (x− α2) · . . . · (x− αn)

33

Page 34: Lineare Algebra I Mitschrift

3.2.10 Lemma von Bezout

(Das Nachfolgende Lemma wurde in der Vorlesung nicht erwähnt, soll an dieser Stel-le aber eingeführt und bewiesen werden, um den Beweis des nächsten Abschnittes zuvervollständigen.)

Lemma 3.1. Sei K[x] ein Polynomring und f, g ∈ K[x] Polynom. Wenn es keinPolynom vom Grad ≥ 1 gibt, dass sowohl f als auch g teilt, so gibt es eindeutigbestimmte Polynome f∗, g∗ mit

f · f∗ + g · g∗ = 1

Beweis. Sei o.B.d.A. deg(f) ≥ deg(g). Wenn g das Nullpolynom ist, und f damit gin jedem Fall teilt, muss deg(f) < 1 sein. D.h. f ∈ K, also wähle f∗ = f−1 (Inversesim Körper) und g∗ = g, dann gilt: f · f∗ + g · g∗ = 1 + o = 1.Der Beweis erfolgt durch vollständige Induktion nach dem Grad von f .Für den Induktionsanfang sei deg(f) = 0, also auch deg(g) = 0, damit sind beidePolynome Körperelemente. Setzt man f∗ = f−1 und g∗ = o, so ergibt sich: f · f∗ +g · g∗ = 1 + o = 1.Sei das Lemma nun für alle Polynome mit Graden kleiner als deg(f) bewiesen. Nachdem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈ K[x] mit

f = q · g + r

wobei deg(r) < deg(g).r und g sind teilerfremd, denn angenommen es gäbe ein h ∈ K[x], das r und g teilt,dann teilt h (nach Distributivgesetz) auch q · g + r = f , was ein Widerspruch dazu ist,dass f und g teilerfremd sind. Nach Induktionsvoraussetzung gibt es g′ und r′ mit

g · g′ + r · r′ = 1

Setzt man r = f − q · q ein, so erhält man

g · g′ + (f − q · g) · r′ = g · g′ + f · r′ − q · g · r′ = f · r′ + g · (g′ − q · r′) = 1

Setzt man f∗ = r′ und g∗ = g′ − q · r′, so erhält man die Behauptung.

3.2.11 Spezielle Faktorpolynomringe

Sei K[x] der Ring aller Polynome über K und g ∈ K[x]. Betrachte nun g · K[x] :={h ∈ K[x] | ∃ f ∈ K[x] : h = g · f}, also das Analogon zum·Z für den Ring (Z,+, ·).Im Ring der ganzen Zahlen ist

Z/mZ =: Zmein Ring, wenn m prim ist sogar ein Körper. Ebenso gilt für Polynomringe

Satz 3.2.4. K[x]/gK[x] =: K[x]g ist mit den von K[x] geerbten Operationen + und ·ein Ring, wenn g über K irreduzibel (nicht in Linearfaktoren zerlegbar über K) sogarein Körper.

Beweis. Sei also g ∈ K[x]. Es wird die Äquivalenzrelation ∼ wie folgt erklärt:

x ∼ y ⇔ ∃ f ∈ K[x] : x− y = f · g

34

Page 35: Lineare Algebra I Mitschrift

K[x]g ist nun die Menge aller Äquivalenzklassen von ∼. Dann wird definiert für[x], [y] ∈ K[x]g

[x] + [y] := [x+ y][x] · [y] := [x · y]

Zu zeigen ist nun, dass (K[x]g,+, ·) ein Ring ist, d.h. im Einzelnen

R1 (K[x]g,+) ist eine abelsche Gruppe, d.h. wiederum

– Wohldefiniertheit von +: Seien [x] = [x′] und [y] = [y′], dann gilt

∃ f1 ∈ K[x] : x− x′ = f1 · g∃ f2 ∈ K[x] : y − y′ = f2 · g

also∃ f1, f2 ∈ K[x] : (x− x′) + (y − y′) = f1 · g + f2 · g

d.h.∃ f1, f2 ∈ K[x] : (x+ y)− (x′ + y′) = (f1 + f2) · g

und damit[x+ y] = [x′ + y′]

– Abgeschlossenheit von K unter +: Klar, wenn x, y ∈ K[x], dann ist x +y ∈ K[x], also [x+ y] ∈ K[x]g .

– Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]g , dann gilt

([x]+[y])+[z] = [x+y]+[z] = [(x+y)+z] = [x+(y+z)] = [x]+[y+z] = [x]+([y]+[z])

– Kommutativgesetz:

[x] + [y] = [x+ y] = [y + x] = [y] + [x]

– Existenz eines neutralen Elements: [o] ist auch das neutrale Element vonK[x]g , denn es gilt

[x] + [o] = [x+ o] = [x]

– Existenz von Inversen: [−x] ist das inverse Element zu [x], denn es gilt

[−x] + [x] = [(−x) + x] = [o]

R2 · ist eine assoziative, kommutative Operation aufK[x]g mit Einselement inK[x]g ,d.h. im Einzelnen

– Wohldefiniertheit von ·: Seien [x] = [x′] und [y] = [y′], dann gilt

∃ f1 ∈ K[x] : x− x′ = f1 · g∃ f2 ∈ K[x] : y − y′ = f2 · g

also

∃ f1, f2 ∈ K[x] : x·y = (f1·g+x′)·(f2·g+y′) = f1·g·f2·g+f1·g·y′+x′·f2·g+x′·y′

d.h.

∃ f1, f2 ∈ K[x] : (x+ y)− (x′ + y′) = (f1 · f2 · g + f1 · y′ + f2 · x′) · g

und damit[x · y] = [x′ · y′]

35

Page 36: Lineare Algebra I Mitschrift

– Abgeschlossenheit von K unter ·: Klar, wie bei +.

– Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]g , dann gilt

([x]·[y])·[z] = [x·y]·[z] = [(x·y)·z] = [x·(y·z)] = [x]·[y·z] = [x]·([y]·[z])

– Kommutativgesetz:

[x] · [y] = [x · y] = [y · x] = [y] · [x]

– Existenz der Eins: [1] ist das neutrale Element von K[x]g bezüglich ·, dennes gilt

[1] · [x] = [1 · x] = [x]

• Distributivgesetze: Wegen der Kommutativität genügt es, eines der beiden zuzeigen:

[x]·([y]+[z]) = [x]·[y+z]+[x·(y+z)] = [x·y+x·z] = [x·y]+[x·z] = ([x]·[y])+([x]·[z])

Damit ist gezeigt, dass K[x]g ein kommutativer Ring mit Eins ist.

Sei g nun irreduzibel. Um zu zeigen, dass (K[x]g,+, ·) ein Körper ist, genügt es, dieExistenz der multiplikatives Inversen nachzuweisen für alle [f ] ∈ K[x]∗g .Da g irreduzibel ist, ist g der einzige Teiler von sich selbst. Sei [f ] ∈ K[x]∗g , dann ist[f ] ungleich [g], also ist f nicht durch g teilbar und damit teilerfremd zu g. Nach demLemma von Bezout gibt es dann Polynome g∗ und f∗ mit

g∗ · g = 1− f∗ · f

das heißt also[1] = [f∗ · f ] = [f∗] · [f ]

womit [f∗] ∈ K[x]g multiplikatives Inverses zu [f ] ist.

3.2.12 Beispiele

• R[x]/(x2 + 1)R[x] ∼= C

• Q[x]/(x2 − 2)Q[x] ist der kleinste Körper, der die rationalen Zahlen und√

2enthält:

Q[x]/(x2 − 2)Q[x] ∼={a+√

2 · b | a, b ∈ Q}

36

Page 37: Lineare Algebra I Mitschrift

4 Vektorräume

4.1 Definitionen4.1.1 Vektorräume

Definition 4.1. Sei K ein Körper.Eine Menge V ist ein Vektorraum über K, wenn es Operationen +, · gibt mit

V1 (V,+) ist eine abelsche Gruppe. Das neutrale Element dieser Gruppe nennt manmeist o und das Inverse zu v ∈ V nennt man −v.

V2 Für

· : K × V → V

(λ, v) 7→ λ · v

genannt „skalare Multiplikation“, gelten folgende Gesetze

(i) (λ+ µ) · v = λ · v + µ · v - Distributivgesetz 1

(ii) λ · (v + w) = λ · v + λ · w - Distributivgesetz 2

(iii) (λ · µ) · v = λ · (µ · v) - „Assoziativgesetz“

(iv) 1 · v = v - „multiplikative Neutralität der Körper-Eins“

4.1.2 Weitere Eigenschaften

Satz 4.1.1. Aus den Vektorraumaxiomen lassen sich weitere Eigenschaften ableiten.Sei v ∈ V ein K-Vektorraum und λ ∈ K:

(a) 0 · v = o, denn es gilt: 0 · v = (0 + 0) · v = 0 · v + 0 · v ⇔ o = 0 · v.

(b) λ · o = o, denn es gilt: λ · o = λ · (o+ o) = λ · o+ λ · o⇔ o = λ · o.

(c) Aus λ · v = o folgt λ = 0 oder v = o. Denn angenommen λ 6= 0 und λ · v = o,dann ist letzteres äquivalent zu λ−1 · (λ · v) = λ−1 · o, d.h. 1 · v = o, also v = o.

(d) (−1) · v = −v, denn es gilt:

v−v = o = 0·v = (1+(−1))·v = 1·v+(−1)·v = v+(−1)·v ⇔ −v = (−1)·v

4.1.3 Beispiele

1. „Standardbeispiel“: Kn := {x = (x1, x2, . . . , xn) | xi ∈ K}, wobei Additionund skalare Multiplikation komponentenweise definiert sind, d.h. für

(x1, . . . , xn), (y1, . . . , yn) ∈ Kn, λ ∈ K

gilt

(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn)λ · (x1, x2, . . . , xn) = (λ · x1, λ · x2, . . . , λ · xn)

37

Page 38: Lineare Algebra I Mitschrift

2. Die Menge der Polynome K[x] ist ein Vektorraum über K:(K[x],+) ist eine abelsche Gruppe, weil (K[x],+, ·) ein Ring ist, und die restli-chen Gesetz ergeben sich aus der schon definierten Multiplikation, weil Körper-elemente lediglich Polynome vom Grad 0 sind.

3. Vektorraum der Funktionen überK: V = {f : M → K}, mitM eine beliebige,feste Menge. Die Operationen sind punktweise definiert

(f + g)(x) := f(x) + g(x) ∀x ∈M(λ · f)(x) := λ · f(x) ∀x ∈M

4. Vektorräum der Abbildungen von einer Menge M in einen K-Vektorräum W istein K-Vektorräum. Die Operationen sind wie folgt definiert:Sind F,G ∈ Abb(M,W ) und λ ∈ K:

(F +G)(m) := F (m) +G(m) ∀m ∈M(λ · F )(m) := λ · F (m) ∀m ∈M

5. (Kn×n,+, ·) - die quadratischen Matrizen von Elementen aus K - mit der kom-ponentenweisen Addition und skalaren Multplikation ist ein K-Vektorraum.

6. Jeder Körper ist ein Vektorraum über sich selbst.

7. Allgemeiner: Ist L ⊆ K ein Unterkörper von K, dann ist K ein L-Vektorraum.

4.1.4 Untervektorräume

Definition 4.2. Sei V einK-Vektorraum, dann heißtW ⊆ V Untervektorraum von V ,wenn gilt

U1 o ∈W

U2 v + w ∈W ∀ v, w ∈W

U3 λ · v ∈W ∀λ ∈ K, v ∈W

Satz 4.1.2. Ein Untervektorraum W von V ist mit den induzierten Operationen selbstein Vektorraum.

Beweis. Die Vektorraumaxiome lassen sich leicht nachrechnen:

V1 (W,+) ist eine abelsche Gruppe, denn es gilt:

G1 Die Addition ist nach U2 auf W abgeschlossen. Assoziativität vererbt sich.

G2 Nach U1 ist o ∈W . o ist neutrale Element von V , diese Eigenschaft vererbtsich auf W .

G3 Wenn v ∈W , dann ist nach U3 auch (−1) · v = −v in W , was auch in Wdas zu v Inverse sein muss.

V2 Die Multiplikation ist nach U3 über W abgeschlossen und die Gesetze der Mul-tiplikation vererben sich dank U2 und U3 auf W .

38

Page 39: Lineare Algebra I Mitschrift

4.1.5 Beispiele

(a) Die trivialen Untervektorräume eines Vektorraums V sind W = {0} und W =V .

(b) Wa ={(x1, x2) ∈ R2 | x1 + a · x2 = 0

}für ein a ∈ R.

Allgemein: Lösungsräume homogener linearer Gleichungen in n Variablen überK sind Untervektorräume des Kn.

(c) W = {f : C→ R | f(1) + (2− i) · f(1 + i) = 0}

(d) R[x]d︸ ︷︷ ︸Polynome über R vom Grad d

⊂ R[x] ⊂ ζ1(R,R)︸ ︷︷ ︸stetig differenzierbare Abb.

⊂ ζ0(R,R)︸ ︷︷ ︸stetige Abb.

⊂ RR

4.1.6 Durchschnitte von Unterräumen sind Unterräume

Proposition 4.1.1. Sei V ein Vektorraum und I eine Indexmenge. Für i ∈ I sei Wi

ein Untervektorraum von V . Es gilt: ⋂i∈I

Wi

ist ein Untervektorraum von V .

Beweis. Klar: Gilt eine Eigenschaft für alle Mengen des Durchschnitts, gilt sie auchfür den Durchschnitt selbst.

4.1.7 Beispiele

• V = R[x], dann ist die Menge Wk der Polynome, deren k-ter Koeffizient 0 ist,ein Unterraum von V . Dann ist auch

W =⋂

k ungerade

Wk

ein Unterraum von R[x]. Es ist W ∼= R[x2].

• Seienn∑i=1

aji · xi = 0

für j = 1, . . . ,m homogene lineare Gleichungen über Kn. Wie in Beispiel b) istder Lösungsraum Wk jeder der j Gleichungen für sich ein Unterraum des Kn.Nach Proposition ist also auch

m⋂j=1

Wj

ein Unterraum des Kn.

39

Page 40: Lineare Algebra I Mitschrift

4.1.8 Vereinigung von Unterräumen ist kein Unterraum

Achtung. Die Vereinigung von Vektorräumen ist im Allgemeinen kein Vektorraum.Wenn U,W Unterräume von V sind, so ist U ∪ W nur dann ein Unterraum, wennV ⊆W oder W ⊆ V .

Beweis. Wenn U ⊆ W oder W ⊆ U , dann ist U ∪ W = W , also ist U ∪ W einVektorraum.Seien U,W Unterräume mit U 6⊆ W und W 6⊆ U , d.h. es gibt ein u ∈ U mit u 6∈ Wund ein w ∈W mit w 6∈ U . Dann ist u+w 6∈ U (ansonsten wäre auch (u+w)− u =w ∈ U ) und u + w 6∈ W (ansonsten wäre auch (u + w) − w = u ∈ W ), also ist U2für U ∪W nicht erfüllt.

4.1.9 Beispiel

V = R2, dann sei W1 Lösungsraum von x1 − x2 = 0 und W2 der Lösungsraum von−2x1 − 5x2 = 0

Die Summe von Vektoren u ∈ W1, v ∈ W2 ist im Allgemeinen nicht in der Vereini-gung der Lösungsmengen.

4.1.10 Lineares Erzeugnis

Sei V ein Vektorraum über K und seien v1, . . . , vr ∈ V .

Definition 4.3. v ∈ V heißt Linearkombination von v1, . . . , vr ∈ V , wenn Skalareλ1, λ2, . . . , λr ∈ K existieren, sodass gilt

v = λ1 · v1 + λ2 · v2 + . . .+ λr · vr =r∑

k=1

λk · vk

Definition 4.4. Die Menge aller Linearkombinationen von v1, . . . , vr ist das Erzeug-nis oder der aufgespannte Raum von v1, . . . , vr. Man schreibt dafür span(v1, . . . , vr)oder 〈v1, . . . , vr〉.

Proposition 4.1.2. 〈v1, . . . , vr〉 ist der kleinste Untervektorraum von V , der v1, . . . , vrenthält.

Beweis. Zunächst wird gezeigt, dass 〈v1, . . . , vr〉 ein Untervektorraum von V ist.

40

Page 41: Lineare Algebra I Mitschrift

U1 Es ist o ∈ 〈v1, . . . , vr〉, dann für λ1 = λ2 = . . . = λr = 0 ∈ K ist

r∑k=1

λk · vk =r∑

k=1

0 · vk =r∑

k=1

o = o

U2 Seien v, w ∈ 〈v1, . . . , vr〉, d.h. es gibt λ1, . . . , λr ∈ K und µ1, . . . , µr ∈ K mit

v =r∑

k=1

λk · vk, w =r∑

k=1

µk · vk

dann gilt

v + w =r∑

k=1

λk · vk +r∑

k=1

µk · wk =r∑

k=1

(λk + µk) · vk ∈ 〈v1, . . . , vr〉

U3 Seien λ ∈ K und v ∈ 〈v1, . . . , vr〉, d.h. es gibt λ1, . . . , λr ∈ K mit

v =r∑

k=1

λk · vk

dann gilt

λ · v = λ ·r∑

k=1

λk · vk =r∑

k=1

λ · (λk · vk) =r∑

k=1

(λ · λk) · vk

Jeder Unterraum W von V , der v1, . . . , vr enthält, enthält nach U2 und U3 auch

v =r∑

k=1

λk · vk

für alle λ1, . . . , λr ∈ K. Das heißt W ⊆ 〈v1, . . . , vr〉, also ist 〈v1, . . . , vr〉 der kleinsteUntervektorraum von V , der v1, . . . , vr enthält.

4.1.11 Lineare Unabhängigkeit

Definition 4.5. Eine endliche Menge von Vektoren v1, . . . , vr aus dem K-VektorraumV heißt linear unabhängig, wenn aus

r∑k=1

λk · vk = o

folgtλ1 = λ2 = . . . = λk = 0

In anderen Worten: Der Nullvektor lässt sich nur trivial aus den vi kombinieren.Eine unendliche Familie (vi | i ∈ I) von Vektoren heißt linear unabhängig, falls jedeendliche Teilfamilie linear unabhängig ist.

41

Page 42: Lineare Algebra I Mitschrift

4.1.12 Beispiele

... im R3:

a) e1 =

100

, e2 =

010

, e3 =

001

sind linear unabhängig. Die einzi-

ge Lösung (λ1, λ2, λ3) von

λ1 · e1 + λ2 · e2 + λ3 · e3 = o

ist (λ1, λ2, λ3) = (0, 0, 0).

b) v1 =

110

, v2 =

101

, v3 =

011

sind linear unabhängig.

c) w1 =

122

, w2 =

211

, w3 =

333

sind linear abhängig, weil w1 +

w2 = w3 gilt, also w1 +w2 −w3 = o eine nicht-triviale Linearkombination desNullvektors ist.

d) Fasst man R[x] als Vektorraum über R auf, so ist {xn | n ∈ N} linear unabhän-gig. Es gibt keine nicht-triviale endliche Linearkombination des Nullvektors.

4.1.13 Charakterisierung der linearen Unabhängigkeit

Proposition 4.1.3. Vektoren v1, . . . , vr sind linear unabhängig genau dann, wenn sichjedes v ∈ 〈v1, . . . , vr〉 eindeutig als Linearkombination der vi darstellen lässt

Beweis. Hinrichtung: Angenommen es gibt einen Vektor v ∈ 〈v1, . . . , vr〉 mit zweiverschiedenen Darstellungen, also

v =r∑

k=1

λk · vk, v =r∑

k=1

µk · vk

dann gilt

o = v − v =

(r∑

k=1

λk · vk

)−

(r∑

k=1

µk · vk

)=

r∑k=1

(λk − µk) · vk

Aus der linearen Unabhängigkeit von v1, . . . , vr folgt für alle k = 1, . . . , r

λk − µk = 0⇔ λk = µk

Widerspruch zu Annahme.Rückrichtung: Wenn v1, . . . , vr linear abhängig sind, dann hat der Nullvektor zweiverschiedene Darstellungen (die triviale und eine nicht-trivale).

Folgerung. Wenn v1, . . . , vr linear unabhängig sind, dann gilt für alle i = 1, . . . , r:vi 6∈ 〈v1, . . . , vi−1, vi+1, . . . , vr〉 (andernfalls gäbe es zwei Darstellungen von vi durchdie Vektoren v1, . . . , vr, einmal als vi selbst und die zweite nur durch Vektoren ausv1, . . . , vi−1, vi+1, . . . , vr).

42

Page 43: Lineare Algebra I Mitschrift

Bemerkung. Wie man leicht einsieht, gilt:

i) Ein einzelner Vektor v 6= o ist immer linear unabhängig.

ii) ∅ ist linear abhängig.

iii) Wenn o ∈ {v1, . . . , vr}, dann sind v1, . . . , vr linear abhängig.

iv) Ist vi eine Linearkombination von v1, . . . , vi−1, vi+1, . . . , vr, dann ist v1, . . . , vrlinear abhängig.

4.2 Basis und Dimension4.2.1 Basis

Definition 4.6. Sei V ein Vektorraum über K.{v1, . . . , vn} heißt Basis von V , wenn gilt

• 〈v1, . . . , vn〉 = V

• {v1, . . . , vn} sind linear unabhängig.

Ist {v1, . . . , vn} Basis von V , dann kann jedes Element von V eindeutig als Line-arkombination

v =n∑k=1

λk · vk

geschrieben werden.

4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen

Proposition 4.2.1. (v1, . . . , vn) ist genau dann Basis eines K-Vektorraums V , wennfür jedes Element v ∈ V genau ein

(λ1, λ2, . . . , λn) ∈ Kn

mit

v =n∑k=1

λk · vk

existiert.Es gibt also eine Bijektion ϕ zwischen V und Kn

ϕ : V ↔ Kn

v ↔ (λ1, λ2, . . . , λn)

die sogar strukturerhaltend ist (wie später gezeigt wird). Es ist also V ∼= Kn.

Beweis. Folgt aus der Definition und der Charakterisierung der linearen Unabhängig-keit.

43

Page 44: Lineare Algebra I Mitschrift

4.2.3 Beispiele

• Für V = Kn heißt B = (e1, e2, . . . , en) die kanonische Basis, mit

ei = (0, 0, . . . , 1︸︷︷︸i-te Stelle

, 0, . . . , 0)

die Einheitsvektoren genannt werden.

• Für W ={k ∈ R2 | x1 − x2 = 0

}ist B = {(1, 1)} eine Basis.

• K[x] hat die Basis B ={1, x, x2, . . . , xn, . . .

}.

4.2.4 Alternative Definitionen

Satz 4.2.1. Für eine Familie von Vektoren B = (v1, . . . , vn) aus einem Vektorraum Vist äquivalent:

(i) B ist Basis.

(ii) B ist minimal erzeugend, d.h. 〈B〉 = V und für alle B′ ( B gilt 〈B′〉 6= V .(Basisauswahlsatz)

(iii) B ist maximal linear unabhängig, d.h.B ist linear unabhängig und für alle v ∈ Vgilt: B ∪ {v} ist linear abhängig. (Basisergänzungssatz)

Beweis. Man zeigt jeweils:

(i)⇒ (ii) Angenommen B ist Basis und nicht minimal erzeugend, d.h.

∃B′ ( B : 〈B′〉 = V

Sei vi ∈ B\B′. WeilB′ V erzeugt, lässt sich vi einerseits als Linearkombinationvon Vektoren ausB′, andererseits durch vi selbst darstellen, womitB nicht linearabhängig, also auch keine Basis sein kann.

(ii)⇒ (i) Wenn B keine Basis, also nicht linear unabhängig ist, aber erzeugend ist, danngibt es für ein vi Skalare λk ∈ K mit

vi =

(i−1∑k=0

λk · vk

)+

(n∑

k=i+1

λk · vk

)

Aus v ∈ 〈v1, . . . , vn〉 folgt für Skalare µk ∈ K

v =n∑k=0

µk · vk

=

(i−1∑k=0

µk · vk

)+ µi ·

((i−1∑k=0

λk · vk

)+

(n∑

k=i+1

λk · vk

))+

(n∑

k=i+1

µk · vk

)

=

(i−1∑k=0

µk · vk

)+

(i−1∑k=0

(µi · λk) · vk

)+

(n∑

k=i+1

(µi · λk) · vk

)+

(n∑

k=i+1

µk · vk

)

=

(i−1∑k=0

(µk + µi · λk) · vk

)+

(n∑

k=i+1

(µk + µi · λk) · vk

)

44

Page 45: Lineare Algebra I Mitschrift

also v ∈ 〈v1, . . . , vi−1, vi+1, . . . , vr〉. Damit ist gezeigt, dass B nicht minimalerzeugend ist.

(i)⇒ (iii) Wenn B eine Basis ist, dann ist B erzeugend, d.h. für alle v ∈ V ist v ∈〈v1, . . . , vn〉. Weil v1, . . . , vn sind linear unabhängig sind, ist {v, v1, . . . , vn}nicht linear unabhängig, d.h. B ist maximal linear unabhängig.

(iii)⇒ (i) WennB zwar linear unabhängig, aber nicht erzeugend ist, dann gibt es ein v ∈ Vmit v 6∈ 〈v1, . . . , vn〉, d.h. {v, v1, . . . , vn} ist linear unabhängig. Das heißt aber,dass B nicht maximal linear unabhängig ist.

4.2.5 Existenz einer Basis für endlich erzeugbare Vektorräume

Folgerung. Ist X ⊆ V ein endliches Erzeugendensystem von V , d.h. 〈X〉 = V , danngibt es eine Basis.

Beweis. Jedes endliche Erzeugendensytem enthält ein minimales Erzeugendensystem,also eine Basis.

Satz 4.2.2. Jeder endlich erzeugbare Vektorraum besitzt eine Basis.

4.2.6 Austauschlemma

Lemma 4.1. Sei B = (v1, . . . , vn) eine Basis von V und ist w =n∑k=0

λk · vk mit

λi 6= 0, dann istB′ = {v1, . . . , vi−1, vi+1, . . . , vn}

eine Basis von V .

Beweis. Zu zeigen ist, dass B′ Basis von V ist, also

1. 〈B′〉 = V :Sei v ∈ V . dann existieren µ1, . . . , µn ∈ K mit

v = µ1v1 + . . .+ µn · vn

O.B.d.A. sei k = 1, also w = λ1 · v1 + . . . λn · vn, λ1 6= 0.Wegen λ1 6= 0 gilt:

v1 =1λ1· w − λ2

λ1· v2 −

λ3

λ1· v3 − . . .−

λnλ1· vn

Daraus folgt

v =µ1

λ1·w+

(µ2 − µ1 ·

λ2

λ1

)·v2+

(µ3 − µ1 ·

λ3

λ1

)·v3+. . .+

(µn − µ1 ·

λnλ1

)·vn

Also B = 〈w, v2, . . . , vn〉 = V .

45

Page 46: Lineare Algebra I Mitschrift

2. B′ = (w, v2, v3, . . . , vn) ist linear unabhängig.Sei γ1 · w + γ2 · v2 + . . .+ γn · vn = 0. Nach Voraussetzung ist

w = λ1 · v1 + λ2 · v2 + . . .+ λn · vn

mit λ1 6= 0.Dann ist

o = γ1 · w + γ2 · v2 + . . .+ γn · vn= γ1 · (λ1 · v1 + λ2 · v2 + . . .+ λn · vn) + γ2 · v2 + . . .+ γn · vn= γ1 · λ1 · v1 + (γ1 · λ2 + γ2) · v2 + . . .+ (γ1 · λn + γn) · vn

Mit der linearen Unabhängigkeit von v1, . . . , vn folgt

γ1 · λ1 = 0⇒ γ1 = 0

und dannγ1 · λk + γk = 0 + γk = 0⇒ γk = 0

für alle k = 2, . . . , n, also

γ1 = γ2 = . . . = γn = 0

4.2.7 Austauschsatz von Steinitz

Die anschließenden Folgerungen werden bedeutend einsichtiger und einfacher zu be-weisen, hat man vorher den Austauschsatz von Steinitz zur Verfügung (der äquivalentzum Austauschlemma ist). Im Gegensatz zur Vorlesung wird also zunächst dieser Satzbewiesen und dann bei den Folgerungen verwendet.

Satz. SeiB = {v1, . . . , vn} eine Basis desK-Vektorraums V undC = {w1, . . . , wm}eine Menge linear unabhängiger Vektoren. Dann gibt es eine Menge von n −m Vek-toren, o.B.d.A. vm+1, . . . , vn, sodass

{w1, . . . , wm, vm+1, . . . , vn}

eine Basis von V ist.

Beweis. Beweis durch vollständige Induktion über mFür m = 1 folgt der Satz direkt aus dem Austauschlemma.Sei m > 1 und der Austauschsatz für Mengen C ′ mit m − 1 Elementen gezeigt.Sei C = {w1, . . . , wm} eine Menge linear unabhängiger Vektoren, dann betrachtezunächst C ′ = C \ {wm}. C ′ besitzt m− 1 Elemente, also kann man die Induktions-voraussetzung darauf anwenden:

{w1, . . . , wm−1, vm, vm+1, . . . , vn}

ist eine Basis von V . Man kann also wm ∈ V als Linearkombination dieser Vektorendarstellen:

wm =m−1∑k=1

λk · wk +n∑

k=m

λk · vk

46

Page 47: Lineare Algebra I Mitschrift

Es muss ein i ≥ m geben mit λi 6= 0, denn sonst wäre

wm =m−1∑k=1

λk · wk

was wiederum ein Widerspruch zur linearen Unabhängigkeit von w1, . . . , w1 wäre.Sei o.B.d.A i = m, dann ist nach Austauschlemma ist also

{w1, . . . , wm−1, wm, vm+1, . . . , vn}

eine Basis von V .

4.2.8 Alle Basen haben gleich viele Elemente

Satz 4.2.3. Je zwei Basen eines (endlich erzeugten) Vektorraums V habe die gleicheAnzahl von Elementen (=Kardinalität).

Beweis. V sei ein endlich erzeugbarer Vektorraum. Dann existieren Basen mit endlichvielen Elementen. Angenommen B = (v1, . . . , vn), B′ = (w1, . . . , wm) sind Basenmit m < n. Insbesondere ist B′ dann linear unabhängig und nach Austauschsatz vonSteinitz gibt es n−m ≥ 1 Vektoren in B, o.B.d.A. vm+1, . . . , vn, sodass

{w1, . . . , wm, vm+1, . . . , vn}

eine Basis, also ein minimales Erzeugendensystem von V ist, was ein Widerspruchdazu ist, dass B′ ein minimales Erzeugendensystem, also eine Basis ist.

4.2.9 Dimension

Definition 4.7. Sei V ein K-Vektorraum, dann definiere

dimK(V ) =

{n, falls V eine Basis mit n Elementen besitzt∞, falls V keine endliche Basis besitzt

Proposition 4.2.2. Sei V ein K-Vektorraum und w1, . . . , wr Vektoren aus V . Sei r >dimK(V ), dann ist (w1, . . . , wr) linear abhängig.

Beweis. Sei B = {v1, . . . , vn} eine Basis von V . Angenommen (w1, . . . , wr) (n <r) sei linear unabhängig, dann ist auch (w1, . . . , wn) linear unabhängig. Nach demAusstauschsatz von Steinitz kann man die Basis B also komplett austauschen, d.h.(w1, . . . , wn) ist Basis und damit maximal linear unabhängig, was ein Widerspruchzur Annahme ist.

4.2.10 Beispiele

• dimK Kn = n

• dimR C = 2, denn (1, i) ist eine Basis des R-Vektorraums C.

• dimQ R =∞

47

Page 48: Lineare Algebra I Mitschrift

4.2.11 Dimension von Unterräumen

Proposition 4.2.3. Sei W ein Unterraum von V .

(i) Es gilt dimW ≤ dimV .

(ii) Aus dimW = dimV folgt W = V .

Beweis.

(i) Jede linear unabhängige Menge von Vektoren in V hat höchstens dimV viele Ele-mente. Jede linear unabhängige Menge in W , insbesondere jede Basis, ist natürlichauch eine linear unabhängige Menge in V , hat also höchstens dimV Elemente. AlsodimW ≤ dimV .

(ii) Angenommen dimW = dimV , aber W ( V .SeiB Basis vonW und v ∈ V \W , d.h. v 6∈ 〈B〉.B∪{v}wäre dann linear unabhängigin V , hätte aber mehr Elemente als dimW = dimV , Widerspruch.

4.3 Unendlichdimensionale Vektorräume4.3.1 Beispiele

• Eine andere Sichtweise auf die Menge der Polynome über einem Körper K istdie Betrachtung der Polynomkoeffizienten, angeordnet in einer unendlichen Fol-ge, in der fast alle Folgenglieder 0 sind:

K[x] ∼= {(a0, a1, . . . , an, 0, 0, . . .) | ∃n ∈ N : a0, . . . , an ∈ K, ak = 0 ∀ k > n}

Man definiert dann 1 := (1, 0, 0, . . .), x := (0, 1, 0, 0, . . .), x2 := (0, 0, 1, 0, 0, . . .)usw. Die Menge dieser Vektoren ist die Standardeinheitsbasis des K(N).Diese Sichtweise ist auch verträglich mit der Multiplikation im Polynomring,wie man leicht nachrechnen kann.Insgesamt ist also K[x] ∼= K(N), wobei K(N) der Vektorraum der unendlichenFolgen mit fast allen Folgengliedern = 0 ist.

• Die Menge der unendlichen Folgen über einem Körper K

KN = {(a0, a1, . . . , an, . . .) | ai ∈∈ ∀ i ∈ N}

ist ebenfalls ein Vektorraum. Die Operationen werden auch hier komponenten-weise definiert.

B = ((1, 0, 0, . . .), (0, 1, 0, . . .), . . .)

ist keine Basis vonKN, weil zum Beispiel (1, 1, 1, . . .) nicht als endliche Linear-kombination von Vektoren aus geschrieben werden kann. B kann diesen Vektoralso nicht erzeugen.

4.3.2 Halbordnungen

Definition 4.8. Sei M eine Menge. Eine Relation R ⊆ M ×M heißt Halbordnungauf M , wenn gilt

(i) R ist reflexiv: mRm ∀m ∈M ,

(ii) R ist antisymmetrisch: ∀m,n ∈M : mRn ∧ nRm⇒ m = n und

(iii) R ist transitiv: ∀m,n, o ∈M : mRn ∧ nRo⇒ mRo.

48

Page 49: Lineare Algebra I Mitschrift

4.3.3 Beispiele

• „≤“ ist auf Z eine Halbordnung.

• Sei

M = P({1, 2, 3}) = {∅, {0} , {1} , {2} , {3} , {1, 2} , {1, 3} , {2, 3} , {1, 2, 3}}

Die Inklusion „⊆“ ist eine Halbordnung auf jeder Menge von Mengen:

(i) A ⊆ A X(ii) A ⊆ B ∧B ⊆ A⇒ A = B X

(iii) A ⊆ B ∧B ⊆ C ⇒ A ⊆ C X

4.3.4 Ketten

Definition 4.9. Sei M eine Menge mit einer Halbordnung R.

(a) K ⊆M heißt Kette, falls gilt: a, b ∈ K ⇒ aRb ∨ bRa.

(b) Eine Kette heißt induktiv, falls ein m ∈ M existiert, sodass kRm ∀ k ∈ K(m ist obere Schranke von K).

(c) Ein Element m0 ∈M heißt maximal in M , falls gilt:Ist m0Rm für ein m ∈M , dann folgt m = m0.

4.3.5 Lemma von Zorn

Satz 4.3.1. Sei M 6= ∅ und R eine Halbordnung auf M . Ist jede Kette K ⊆ Minduktiv, so gibt es wenigstens ein maximales Element m ∈M .

(Das Lemma von Zorn ist äquivalent zum Auswahlaxiom.)

4.3.6 Basisexistenzsatz für beliebige Vektorräume

Satz 4.3.2. Sei V ein L-Vektorraum. Dann gibt es eine maximal linear unabhängigeTeilmenge B in V , also eine Basis.

Beweis. SeiM := {B |B ⊆ V, B ist linear unabhängig}

M 6= ∅, weil ∅ linear unabhängig ist und ∅ ⊆ V , und damit ∅ ∈M .Ordne M bezüglich der Inklusion. Sei K ⊆M eine Kette in M . Es wird gezeigt, dassK induktiv ist.Setze dazu

B0 =⋃B∈K

B

dann gilt B ⊆ B0 für alle B ∈ K. B0 ∈M , wenn B0 linear unabhängig ist: Sei

n∑i=1

λi · bi = 0

für λi ∈ L, bi ∈ B0. Dann gibt es Bi ∈ K mit bi ∈ Bi für alle i = 1, . . . , n. NachDefinition der Kette sind die Bi so geordnet, dass es ein j ∈ {1, . . . , n} gibt, sodass

49

Page 50: Lineare Algebra I Mitschrift

Bi ⊆ Bj , also bi ∈ Bj für alle i. Bj ∈ M ist aber linear unabhängig, und damit folgtaus der Gleichung:

λ1 = λ2 = . . . = λn = 0

Es gibt also ein B0 ∈M mit B ⊆ B0 für alle B ∈ K, also ist K induktiv.Damit ist gezeigt, dass jede Kette aus M induktiv ist. Nach dem Lemma von Zorn gibtes also ein maximales Element inM , d.h. eine maximal linear unabhängige Menge vonVektoren in V , also eine Basis.

4.4 Matrizen4.4.1 Definition

Definition 4.10. Eine m× n-Matrix über K ist eine Anordnung von n ·m Elementenaus K in einem rechteckigen Schema:

a11 a12 . . . a1n

a21 a22 . . . a2n

......

. . ....

am1 am2 . . . amn

Die Elemente aij sind die Koeffizienten des Matrix.Die waagerecht geschriebenen Tupel (ai1, ai2, . . . , ain) heißen Zeilen(-vektoren).

Die senkrecht geschriebenen Tupen

a1j

a2j

...amn

heißen Spalten(-vektoren).

Die Menge allerm×n-Matrizen überK bezeichnet man mitMK(m,n),M(m,n,K)oder Km×n.

4.4.2 Zeilenstufenform

Definition 4.11. Eine Matrix ist in Zeilenstufenform , wenn sie so aussieht:

0 � ∗ · · · · · ·0 0 · · · � ∗ · · · *...

.... . . 0 0

. . . * ∗0 0 · · · 0 0 · · · � ∗ · · ·0 0 · · · 0 0 · · · 0 · · · �

0 0

Beschreibung:

• Die � sind alle 6= 0.

• Die Elemente rechts von den � sind beliebig (∗).

• Unter der Stufenlinie stehen nur 0-Elemente.

Formaler: A ∈ Km×n ist in Zeilenstufenform, wenn

• Es gibt ein r ∈ {0, 1, . . . , n}, sodass alle Zeilen mit Index i > r nur Nullenenthalten.

• Es existieren j1, . . . , jr mit 0 < j1 < j2 < . . . < jr ≤ n und ji := min {j | aij 6= 0}.

50

Page 51: Lineare Algebra I Mitschrift

4.4.3 Kriterium für lineare Unabhängigkeit

Lemma 4.2. Ist A in Zeilenstufenform und sind a1, . . . , ar die Zeilen ungleich o in A,dann sind diese Zeilen linear unabhängig.

Beweis. Seio = λ1 · a1 + . . .+ λr · ar

mit λi ∈ K für alle 1 ≤ i ≤ r.Dies „ist“ (also: kann interpretiert werden als) ein System von n homogenen linearenGleichungen.Betrachte j1 dieser Gleichungen:

0 = λ1 · a1,j1 + . . .+ λr · ar,j1

Wegen aij = 0 für alle i > 1 (alle Einträge unter dem ersten Element 6= 0 in der erstenZeile sind 0) ist das

0 = λ1 · a1,j1 + λ2 · 0 + . . .+ λr · 0 = λ1 · a1,j1︸︷︷︸6=0

⇒ λ1 = 0

Sei aus den Gleichungen j1, . . . , jk−1 gezeigt, dass λ1 = . . . = λk−1 = 0 für eink, 1 < k ≤ n. Wenn jk ≤ jr, dann betrachte die jk-te Gleichung des Systems

0 = λ1 · a1,jk + . . .+ λr · ar,jk

Wegen λ1 = . . . = λk−1 = 0, und aij = 0 für alle i > k folgt

0 = 0·a1,jk+0·a2,jk+. . .+0·ak−1,jk+λk·ak,jk+λk+1·0+·λr·0 = λk·ak,jk︸︷︷︸6=0

⇒ λk = 0

Induktiv folgt also λ1 = λ2 = . . . = λr = 0, d.h. a1, . . . , ar können nur trivial zumNullvektor kombiniert werden, sie sind also linear unabhängig.

4.4.4 Zeilenraum

Definition 4.12. Der Zeilenraum ZR(A) einer Matrix A ∈ Km×n ist das Erzeugnisder Zeilen von A, d.h. ZR = 〈a1, . . . , an〉, wobei ai die i-te Zeile von A ist.

4.4.5 Elementare Zeilenumformungen

Definition 4.13. Sei A eine Matrix des Km×n.

• Typ I: Die i-te Zeile wird mit einem Skalar multipliziert.

A =

∗ ∗ . . . ∗ ∗...

.... . .

......

− − ai − −...

.... . .

......

∗ ∗ . . . ∗ ∗

λ6=0→

∗ ∗ . . . ∗ ∗...

.... . .

......

− − λ · ai − −...

.... . .

......

∗ ∗ . . . ∗ ∗

= AI

51

Page 52: Lineare Algebra I Mitschrift

• Typ II: Zeile i und Zeile j werden addiert.

A =

∗ ∗ . . . ∗ ∗− − ai − −...

.... . .

......

− − aj − −∗ ∗ . . . ∗ ∗

→∗ ∗ . . . ∗ ∗− − ai − −...

.... . .

......

− − aj + ai − −∗ ∗ . . . ∗ ∗

= AII

4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend

Lemma 4.3. Für die Zeilenumformungen A→ AI und A→ AII gilt:

ZR(A) = ZR(AI) = ZR(AII)

Beweis. Sei v ∈ ZR(A), d.h. es existieren µ1, . . . , µm mit

v = µ1 · a1 + . . .+ µi · ai + . . .+ µm · am

= µ1 · a1 + . . .+µiλ· (λ · ai) + . . .+ µm · am ∈ ZR(AI)

bzw.

v = µ1 · a1 + . . .+ µi · ai + . . .+ µj · aj + . . .+ µm · am= µ1 · a1 + . . .+ (µi − µj) · ai + . . .+ µj · (aj + ai) + . . .+ µm · am ∈ ZR(AII)

Die anderen Richtungen sind ähnlich einfach zu zeigen.

4.4.7 Weitere Zeilenumformungen

• Typ III: Addition des λ-fachen einer Zeile i zu einer Zeile j.

A =

∗ ∗ . . . ∗ ∗− − ai − −...

.... . .

......

− − aj − −∗ ∗ . . . ∗ ∗

λ 6=0→

∗ ∗ . . . ∗ ∗− − ai − −...

.... . .

......

− − aj + λ · ai − −∗ ∗ . . . ∗ ∗

= AIII

Typ III als Kombination von Typ I und II:

A =

∗ . . . ∗− ai −...

. . ....

− aj −∗ . . . ∗

I→

∗ . . . ∗− λ · ai −...

. . ....

− aj −∗ . . . ∗

II→

∗ . . . ∗− λ · ai −...

. . ....

− aj + λ · ai −∗ . . . ∗

I→

∗ . . . ∗− ai −...

. . ....

− aj + λ · ai −∗ . . . ∗

= AIII

Also ist ZR(A) = ZR(AIII).

52

Page 53: Lineare Algebra I Mitschrift

• Typ IV: Vertauschen von zwei Zeilen.

A =

∗ ∗ . . . ∗ ∗− − ai − −...

.... . .

......

− − aj − −∗ ∗ . . . ∗ ∗

→∗ ∗ . . . ∗ ∗− − aj − −...

.... . .

......

− − ai − −∗ ∗ . . . ∗ ∗

= AIV

Typ III als Kombination von Typ I, II und III:

A =

∗ . . . ∗− ai −...

. . ....

− aj −∗ . . . ∗

III→

∗ . . . ∗− ai −...

. . ....

− aj − ai −∗ . . . ∗

II→

∗ . . . ∗− ai + (aj − ai) = aj −...

. . ....

− aj − ai −∗ . . . ∗

III→

∗ . . . ∗− aj −...

. . ....

− (aj − ai)− aj = −ai −∗ . . . ∗

I→

∗ . . . ∗− aj −...

. . ....

− ai −∗ . . . ∗

= AIV

Also folgt: ZR(A) = ZR(AIV )

4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden

Satz 4.4.1. Sei A eine (m× n)-Matrix mit Zeilen a1, . . . , am.Mit elementaren Zeilenumformungen lässt sich A in eine Matrix A′ in Zeilenstufen-form überführen.Die Zeilen von A′, die keine Nullzeilen sind, bilden eine Basis von ZR(A).

Beweis. Es bleibt zu zeigen, dass elementare Zeilenumformungen „stark genug“ sind,um Zeilenstufenform zu erzeugen.Die Idee dazu ist die systematische Erzeugung von 0-Einträgen.Wenn A die Nullmatrix ist, dann ist nichts zu zeigen.

1. Ansonsten gibt es eine Spalte, die einen Eintrag ungleich 0 hat. Betrachte dieerste dieser Spalten, j1, und tausche die Zeilen so, dass in der ersten Zeile in derbetrachteten Spalte das Element a1,j1 6= 0 steht.

2. Mit Umformungen des Typs III addiert man Vielfache der ersten Zeile zu denanderen Zeilen, dass die Spalte j1 bis auf den Eintrag a1,j1 nur 0 enthält.

3. Sei die Matrix bis zu einer Zeile ak−1 bereits in Zeilenstufenform, wobei dieletzte betrachtete Spalte jk−1 war. Ist ak−1 letzte Zeile oder jk−1 letzte Spalte,ist man fertig. Man ist außerdem fertig, wenn alle Spalten rechts von jk−1 und

53

Page 54: Lineare Algebra I Mitschrift

unterhalb von ak−1 nur 0 enthalten. Ansonsten betrachte die erste Spalte, ge-nannt jk, die einen Eintrag ungleich 0 unterhalb von Zeile ak−1 hat. Tausche dieZeile mit diesem Eintrag so, dass sie danach Zeile ak ist.

4. Mit Umformungen des Typs III addiert man Vielfache von ak zu den anderenZeilen unterhalb von ak, so dass die Spalte jk unterhalb von ak nur 0-Einträgeenthält.

4.4.9 Beispiele

Betrachte folgende Matrizen aus dem R3:

• 2 3 40 1 24 0 8

a3←a3−2a1−→

2 3 40 1 20 −6 0

a3←a3+6a2−→

2 3 40 1 20 0 12

• 1 1 1

4 3 23 2 1

a3←a3+a1−→

1 1 14 3 24 3 2

a3←a2−a3−→

1 1 14 3 20 0 0

a2←a2−4a3−→

1 1 10 −1 −20 0 0

4.5 Summen und direkte Summen4.5.1 Summe von Untervektorräumen

Definition 4.14. Sind U1, U2 Unterräume eines K-Vektorraums V , dann heißt

U1 + U2 := {x+ y | x ∈ U1, y ∈ U2}

die Summe von U1 und U2.

Bemerkung. U1 + U2 ist ein Untervektorraum von V .

Beweis. Nachweis der Untervektorraumkriteriums

U1 o ∈ U1, o ∈ U2, also o = o+ o ∈ (U1 + U2)

U2 Seien x, x′ ∈ U1, y, y′ ∈ U2, dann sind (x+ y), (x′ + y′) ∈ (U1 + U2) und

(x+ y) + (x′ + y′) = (x+ x′)︸ ︷︷ ︸∈U1

+ (y + y′)︸ ︷︷ ︸∈U2

∈ (U1 + U2)

U2 Ebenso ist für λ ∈ K

λ · (x+ y) = λ · x︸︷︷︸∈U1

+λ · y︸︷︷︸∈U2

∈ (U1 + U2)

54

Page 55: Lineare Algebra I Mitschrift

4.5.2 Beispiele

• U + {o} = U

• U + U = U

• Allgemeiner: U + U ′ = U , wenn U ′ Untervektorraum von U ist.

4.5.3 Summe und Erzeugnis

Korollar. Für zwei Unterräume U1, U2 gilt: 〈U1, U2〉 = U1 + U2.

Beweis. Sei zunächst s ∈ U1 + U2, d.h. es gibt x ∈ U1, y ∈ U2 mit x + y = s.Trivialerweise ist dann s = 1 · x+ 1 · y ∈ 〈U1, U2〉, also gilt U1 + U2 ⊆ 〈U1, U2〉.Sei andererseits u ∈ 〈U1, U2〉, d.h. es gibt Vektoren v1, . . . , vs ∈ U1, ws+1, . . . , ws+t ∈U2 und Skalare λ1, . . . , λs, λs+1, . . . , λs+t ∈ K, sodass gilt

u = λ1 · v1 + . . .+ λs · vs︸ ︷︷ ︸∈U1

+λs+1 · ws+1 + . . .+ λs+t · ws+t︸ ︷︷ ︸∈U2

also eben auch u ∈ (U1 + U2).

4.5.4 Dimensionsformel

Satz 4.5.1. Sind U1 und U2 Untervektorräume von V , dann gilt

dim(U1 + U2) = dim(U1) + dim(U2)− dim(U1 ∩ U2)

Beweis. Sei B0 = {v1, . . . , vr} eine Basis von U1 ∩U2, d.h. dim(U1 ∩U2) = r. Nachdem Basisergänzungssatz kann man B0 einerseits zu

B1 = {v1, . . . , vr, w1, . . . , ws}

als eine Basis von U1 (d.h. dimU1 = r + s), und andererseits zu

B2 = {v1, . . . , vr, z1, . . . , zt}

als eine Basis von U2 (d.h. dimU2 = r + t) ergänzen.Kann man nun zeigen, dass B3 = {v1, . . . , vr, w1, . . . , ws, z1, . . . , zt} eine Basis vonU1 + U2 ist, dann hat man gezeigt

dim(U1 +U2) = r+s+ t = (r+s)+(r+ t)−r = dimU1 +dimU2−dim(U1∩U2)

Dass B3 den Raum U1 + U2 erzeugt, ist klar. Übrig bleibt der Beweis der linearenUnabhängigkeit:Sei also für gesuchte α1, . . . , αr, β1, . . . , βs, γ1, . . . , γt ∈ K:

o = α1 · v1 + . . .+ αr · vr + β1 · w1 + . . .+ βs · ws + γ1 · z1 + . . .+ γt · zt ⇒−α1 · v1 − . . .− αr · vr − β1 · w1 − . . .− βs · ws = γ1 · z1 + . . .+ γt · zt

Das heißt aber

−α1 · v1 − . . .− αr · vr − β1 · w1 − . . .− βs · ws = γ1 · z1 + . . .+ γt · zt ∈ U1

55

Page 56: Lineare Algebra I Mitschrift

Gleichzeitig gilt auchγ1 · z1 + . . .+ γt · zt ∈ U2

alsoγ1 · z1 + . . .+ γt · zt ∈ (U1 ∩ U2)

Dieser Vektor kann somit als Linearkombination von B0 dargestellt werden, d.h. esgibt λ1, . . . , λr mit

γ1 · z1 + . . .+ γt · zt = λ1 · v1 + . . .+ λr · vr ⇒o = λ1 · v1 + . . .+ λr · vr − γ1 · z1 − . . .− γt · zt

Da {v1, . . . , vr, z1, . . . , zt} = B2 Basis von U2 ist, also insbesondere linear unabhän-gig ist, folgt

λ1 = . . . = λr = −γ1 = . . . = −γt = 0

also γ1 = . . . = γt = 0. Aus der ursprünglichen Gleichung folgt damit:

o = α1 · v1 + . . .+ αr · vr + β1 · w1 + . . .+ βs · ws

Es ist aber {v1, . . . , vr, w1, . . . , ws} = B1 eine Basis von B1, insbesondere ist dieMenge linear unabhängig, also folgt

α1 = . . . = αr = β1 = . . . = βs = 0

D.h. alle Koeffizienten αi, βi, γi der Ausgangsgleichung sind 0, woraus die lineareUnabhängigkeit von {v1, . . . , vr, w1, . . . , ws, z1, . . . , zt} = B3 folgt.

4.5.5 Direkte Summe

Definition 4.15. Ein Vektorraum heißt direkte Summe von U1 und U2, wenn

• V = U1 + U2

• U1 ∩ U2 = {o}

Man schreibt dann: V = U1 ⊕ U2

4.5.6 Existenz von komplementären Unterräumen

Proposition 4.5.1. Ist U ein Untervektorraum von V , dann gibt es einen UnterraumU ′ mit U ⊕ U ′ = V .

Beweis. Sei (v1, . . . , vs) = B eine Basis von U . B kann durch B′ = (w1, . . . , wt) zueiner Basis (v1, . . . , vs, w1, . . . , wt) von V ergänzt werden.Setze U ′ = 〈B′〉. Weil B ∪B′ Basis von V ist, erzeugt B ∪B′ ⊆ (U1 +U2) bestimmtV , d.h. aber U1 + U2 = 〈U1, U2〉 = V . Weil B ∪B′ linear unabhängig ist, folgt aus

v ∈ 〈B〉 = U ∧ v ∈ 〈B′〉 = U ′

dass v = o gelten muss, d.h. U ∩ U ′ = {o}.

4.5.7 Beispiel

R3 = 〈e1〉+ 〈e2〉+ 〈e3〉

56

Page 57: Lineare Algebra I Mitschrift

5 Lineare Abbildungen

5.1 Definitionen5.1.1 Lineare Abbildungen

Definition 5.1. Seien V,W Vektorräume über K. Eine Abbildung F : V → W isteine lineare Abbildung, wenn gilt

L1 F (v1 + v2) = F (v1) + F (v2) ∀ v1, v2 ∈ V - Additivität

L2 F (λ · v) = λ · F (v) ∀λ ∈ K, v ∈ V - Homogenität

Lineare Abbildungen sind also Homomorphismen von Vektorräumen.

Bemerkung. Zum Beweis der Linearität genügt zu zeigen:

F (λ1 · v1 + λ2 · v2) = λ1 · F (v1) + λ2 · F (v2)

5.1.2 Beispiele

1.

Achtung.

f : R→ Rf(x) = a · x+ b

f ist affin linear, linear in unserem Sinne nur für b = 0.

2. Sei A ∈ Km×n eine Matrix über K:

A =

a11 . . . a1n

.... . .

...am1 . . . amn

Diese Matrix definiert eine lineare Abbildung durch

A : Kn → Km

x =

x1

...xn

7→ 〈a1, x〉

...〈am, x〉

=

a11 · x1 + a12 · x2 + . . .+ a1n · xn...

am1 · x1 + am2 · x2 + . . .+ amn · xn

Man zeigt leicht, dass A : Kn → Km linear ist.

3. Drehungen der Ebene um o

57

Page 58: Lineare Algebra I Mitschrift

Eine Drehung um einen Winkel α ist eine Abbildung

ρα : R2 → R2

ρα(x, y) 7→ (x · cosα− y · sinα, x · sinα+ y · cosα)

ρα ist (bis auf Transposition) die Abbildung zur Matrix

A =(

cosα − sinαsinα cosα

)4. Differentialoperator

D : R[x]→ R[x]n∑k=0

ak · xk 7→n∑k=0

k · ak · xk−1

Man zeigt leicht: D ist linear (Ableitungsregeln).

5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen

Definition 5.2. Sei F : V → W eine lineare Abbildung, also ein Vektorraumhomo-morphismus.

• Wenn F bijektiv ist, dann ist F ein Isomorphismus.

• Wenn V = W , dann ist F ein Endomorphismus.

• Wenn V = W und F bijektiv, dann ist F Automorphismus.

5.1.4 Eigenschaften von linearen Abbildungen

Bemerkung. Es gilt

• F (o) = o

• F (λ1 · v1 + . . .+ λn · vn) = λ1 · F (v1) + . . .+ λn · F (vn)

• Ist U ein Unterraum von V , dann ist F (U) ein Unterraum von W (U1 folgt ausder ersten Bemerkung, U2 und U3 aus der zweiten).

58

Page 59: Lineare Algebra I Mitschrift

• Sind v1, . . . , vn linear abhängig in V , dann sind F (v1), . . . , F (vn) linear ab-hängig in W . Denn es gibt eine nicht-triviale Linearkombination von o durchv1, . . . , vn. F auf diese Linearkombination angewandt ist einerseits, nach derersten Bermerkung der Nullvektor in W , andererseits aber auch, nach der zwei-ten Bemerkung, eine Linearkombination von Vektoren F (v1), . . . , F (vn).

• Sei U ein Unterraum von V , dann gilt: dim(F (U)) ≤ dim(U). Denn jede Fa-milie von mehr als dim(U) Vektoren aus U ist linear abhängig und nach derletzten Bermerkung ist dann auch jede Familie von mehr als dim(U) Vektorenaus F (U) linear abhängig.

5.1.5 Komposition linearer Abbildungen sind linear

Proposition 5.1.1. Seien U, V,W K-Vektorräume, G : V →W, F : U → V lineareAbbildungen, dann ist auch (G ◦ F ) : U →W linear.

Beweis. Es sind Additivität und Homgenität zu zeigen.

• Seien u1, u2 ∈ U , dann gilt

(G ◦ F )(u1 + u2) = G(F (u1 + u2)) = G(F (u1) + F (u2))= G(F (u1)) +G(F (u2)) = (G ◦ F )(u1) + (G ◦ F )(u2)

• Sei u ∈ U und λ ∈ K, dann gilt

(G ◦ F )(λ · u) = G(F (λ · u)) = G(λ · F (u))= λ ·G(F (u)) = λ · (G · F )(u)

5.1.6 Vektorräume der Homomorphismen

Definition. Man bezeichnet die Menge aller Homomorphismen zwischen zwei K-Vektorräumen V und W als Hom(V,W ), also

Hom(V,W ) = {F : V →W, F linear}

Bemerkung. Hom(V,W ) ist ein Untervektorräum von Abb(V,W ) = WV .

Beweis. Die Unterraumkriterien müssen erfüllt sein:

U1 O : v 7→ o - die Nullabbildung - ist linear:Seien v1, v2 ∈ V , λ1, λ2 ∈ K.

O(λ1 · v1 + λ2 · v2) = o = λ1 · o+ λ2 · o = λ1 ·O(v1) + λ2 ·O(v2)

U2 Abgeschlossenheit gegenüber der Addition, also (F + G) ∈ Hom für F,G ∈HomSeien v1, v2 ∈ V , λ1, λ2 ∈ K.

(F +G)(λ1 · v1 + λ2 · v2) = F (λ1 · v1 + λ2 · v2) +G(λ1 · v1 + λ2 · v2)= λ1 · F (v1) + λ2 · F (v2) + λ1 ·G(v1) + λ2 ·G(v2)= λ1 · (F (v1) +G(v1)) + λ2 · (F (v2) +G(v2))= λ1 · (F +G)(v1) + λ2 · (F +G)(v2)

59

Page 60: Lineare Algebra I Mitschrift

U3 Abgeschlossenheit gegenüber der Skalarmultiplikation, also (λ · F ) ∈ Hom fürF ∈ Hom, λ ∈ KSeien v1, v2 ∈ V , λ1, λ2 ∈ K.

(λ · F )(λ1 · v1 + λ2 · v2) = λ · F (λ1 · v1 + λ2 · v2)= λ · (λ1 · F (v1) + λ2 · F (v2))= λ · λ1 · F (v1) + λ · λ2 · F (v2)= λ1 · (λ · F (v1)) + λ2 · (λ · F (v2))= λ1 · (λ · F )(v1) + λ2 · (λ · F )(v2)

Also ist Hom(V,W ) ein Unterraum von WV .

5.1.7 Menge der Endomorphismen

Definition. Die Menge der Endomorphismen eines Vektorräums bezeichnet man mitEnd(V ), also

End(V ) := Hom(V, V )

Satz 5.1.1. End(V ) mit + (von Hom) und ◦ (Komposition) ist ein Ring.

Beweis. Es sind die Ringaxiome nachzuweisen

R1 (End(V ),+) ist eine abelsche Gruppe, weil (End(V ),+, ·) ein K-Vektorraumist.

R2 Die Komposition ist immer assoziativ; sie ist auch eine Operation ◦ : End(V )×End(V ) → End(V ), weil die Verknüpfüng zweier Endomorphismen F,G ∈End(V ) wieder ein Endomorphismus ist.

R3 Distributivgesetze:Seien F,G,H ∈ End(V ), dann gilt für alle v ∈ V :

(F ◦ (G+H)) (v) = F ((G+H)(v)) = F (G(v) +H(v))= F (G(v)) + F (H(v)) = (F ◦G)(v) + (F ◦H)(v)

und

((F +G) ◦H) (v) = (F +G)(H(v)) = F (H(v)) +G(H(v))= (F ◦H)(v) + (G ◦H)(v)

• (End(V ),+, ◦) hat sogar ein Einselement: die identische Abbildung idV .

5.2 Bild, Faser, Kern5.2.1 Definitionen

Definition 5.3. Für F : V →W linear, ist

• das Bild: imF = F (V ) = {w ∈W | ∃ v ∈ V : F (v) = w} ⊆W

60

Page 61: Lineare Algebra I Mitschrift

• der Kern: kerF = F−1(o) = {v ∈ V | F (v) = o} ⊆ V

Die Faset von F über w ∈ imF ist

F−1(w) = {v ∈ V | F (v) = w} ⊆ V

Bemerkung. Sei F : V →W ist linear.

(a) imF ⊆W ist ein Untervektorraum von W .

(b) kerF ⊆ V ist ein Untervektorraum von V .

(c) F surjektiv genau dann, wenn imF = W (per Definition).

(d) F injektiv genau dann, wenn kerF = {o}.

(e) F injektiv, dann gilt:Sind v1, . . . , vn linear unabhängig in V , dann sind F (v1), . . . , F (vn) linear un-abhängig von W .

Beweis. Sei F : V →W ist linear.

(a) Es sind die Untervektorraumaxiome nachzuweisen:

U1 F (o) = o, d.h. o ∈ imF X

U2 w1, w2 ∈ imF ⇒ ∃ v1, v2 ∈ V : F (v1) = w1, F (v2) = w2, und dann

F (v1 + v2) = F (v1) + F (v2) = w1 + w2

also w1 + w2 ∈ imF .

U3 λ ∈ K, w ∈ imF ⇒ ∃, v ∈ V : F (v) = w, und dann

F (λ · v) = λ · F (v) = λ · w

also λ · w ∈ imF .

(b) Es sind die Untervektorraumaxiome nachzuweisen:

U1 F (o) = o, d.h. o ∈ kerF X

U2 v1, v2 ∈ kerF , d.h. F (v1) = F (v2) = o, also auch

F (v1 + v2) = F (v1) + F (v2) = o+ o = o

U3 λ ∈ K, v ∈ kerF , d.h. F (v) = o, und auch

F (λ · v) = λ · F (v) = λ · o = o

(d) Wenn F injektiv, dann gilt natürlich auch kerF = F−1(o) = {o}.Sei andererseits kerF = F−1(o) = {o}. Wenn v 6= v′, dann ist v− v′ 6= o, also

F (v − v′) 6= o⇔F (v)− F (v′) 6= o⇔

F (v) 6= F (v′)

also ist F injektiv.

61

Page 62: Lineare Algebra I Mitschrift

(e) Betrachte

λ1 · F (v1) + . . .+ λk · F (vk) = o⇔F (λ1 · v1 + . . .+ λk · vk) = o

Aus der Injektivität folgt kerF = {o}, also

λ1 · v1 + . . .+ λk · vk = o

Aus der linearen Unabhängigkeit folgt dann

λ1 = . . . = λk = 0

5.2.2 Rang einer linearen Abbildung

Definition 5.4. Wenn F : V → W eine lineare Abbildung ist, dann ist der Rang vonF definiert als rangF = rkF = dim(imF ).

5.2.3 Rang einer Matrix

Proposition 5.2.1. Sei A ∈ Km×n eine m× n Matrix, dann ist der Rang der linearenAbbildung A : Kn → Km die Dimension des von den Spalten a1, . . . , an von Aerzeugten Untervektorraums von Km.

Beweis. Es gilt sogar: imA =⟨a1, . . . , an

⟩:

⊇ ai ∈ imA, weilA ·ei = ai. Und weil imF ein Vektorraum ist, ist mit a1, . . . , an

auch⟨a1, . . . , an

⟩in imF enthalten.

⊆ Sei y ∈ imA, d.h. es existiert ein x ∈ Kn mit

y = A · x = a1 · x1 + a2 · x2 + . . .+ an · xn︸ ︷︷ ︸∈〈a1,...,an〉

5.2.4 Faserung eines Vektorraums

Bemerkung. Sei F : V →W linear.Sei w ∈ imF , d.h. es existiert ein v0 ∈ V mit F (v0) = w. Die Faser über w ist dann

F−1(w) = v0 + kerF = {v0 + v | v ∈ kerF}

Beweis. Zu zeigen ist:

{v ∈ V | F (v) = w} = {v0 + v | v ∈ kerF}

⊇ Sei v ∈ kerF , dann folgt

F (v0 + v) = F (v0) + F (v) = w + o = w

also v0 + v ∈ F−1(w).

62

Page 63: Lineare Algebra I Mitschrift

⊆ Sei u ∈ F−1(w), d.h. F (u) = w = F (v0) und damit F (u) − F (v0) = F (u −v0) = o. Damit ist aber u − v0 ∈ kerF und u = v0 + (u− v0)︸ ︷︷ ︸

∈kerF

, also u ∈

v0 + kerF .

5.2.5 Affine Teilräume

Definition 5.5. Eine Teilmenge X eines Vektorraums V ist ein affiner Teilraum (oderauch: affiner Unterraum), falls es einen Unterraum U von V gibt, sodass X = v + Ufür ein v ∈ V .

Bemerkung. Wir haben gesehen: Die Fasern einer linearen Abbildung F : V → Wsind affine Teilräume von V .Es gilt auch: Jeder affine Teilraum ist eine Faser einer linearen Abbildung.

5.2.6 Beispiel

Im R2 und R3 gibt es als affine Unterräume Punkte, Geraden, Ebenen. Zudem ist auchR3 selbst ein affiner Unterraum.Sei F : R2 → R3 die Projektion parallel zur x-Achse auf die Gerade x = y.

Diese Abbildung ist linear: F(xy

)=(yy

), sie wird durch die Matrix

(0 10 1

)realisiert.

Der Kern von F ist kerF ={(

x0

)∈ R2

}. Die Faser eines Punktes

(pp

)ist

dann

F−1

(pp

)={(

xp

)| x ∈ R2

}=(pp

)+ kerF

5.2.7 Charakterisierung von affinen Unterräumen

Proposition 5.2.2. Sei X = v + U ein affiner Unterraum von V . Wenn X = v′ + U ′,dann gilt

1. v ∈ X, v′ ∈ X , und vor allem v − v′ ∈ U ,

63

Page 64: Lineare Algebra I Mitschrift

2. U = U ′

Tatsächlich gilt für jedes x ∈ X: X = x+ U .

Beweis. Wenn X = v + U = v′ + U ′, dann gilt eben

1. v = v + o ∈ X und v′ = v′ + o ∈ X ,

2. damit dann v = v′+u′ und v′ = v+u für bestimmte u ∈ U, u′ ∈ U ′, zusammen

v = (v + u) + u′ = v + u+ u′ ⇔ o = u+ u′ ⇔ u = −u′

Wegen u ∈ U ist auch −u = −(−u′) = u′ ∈ U , analog u ∈ U ′, also insgesamtU = U ′.

Schließlich folgt: v = v′ + u für ein u ∈ U , also v − v′ = u ∈ U .

6 Bildquellen• http://de.wikipedia.org/wiki/Bild:Injektivit%C3%A4t_Mengenwolke.png

• http://de.wikipedia.org/wiki/Bild:Surjektivit%C3%A4t_Mengenwolke.png

• http://de.wikipedia.org/wiki/Bild:Bijektivit%C3%A4t_Mengenwolke.png

Alle weiteren Bilder erstellt mit GeoGebra und dem GIMP.

64