appunti di geometria ii anno 2007 - giorgio busoni's...

57
Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Upload: others

Post on 22-Jan-2021

7 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Appunti di Geometria IIAnno 2007

Marco Colò - Claudio Corti - Elia Schneider

Page 2: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider
Page 3: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Indice

1 Dualità e teoremi di Rappresentazione 31.1 Duale e biduale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Annullatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2.1 Proprietà dell’annullatore . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Applicazione trasposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Teoremi di rappresentazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.4.1 Spazio quoziente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.4.2 Caratterizzazione dei funzionali . . . . . . . . . . . . . . . . . . . . . . . . 8

1.5 Appendice - Spazi non finitamente generati . . . . . . . . . . . . . . . . . . . . . 9

2 Complementi sul teorema spettrale 122.1 Applicazione aggiunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.2 Teorema spettrale hermitiano completo . . . . . . . . . . . . . . . . . . . . . . . 14

2.2.1 Prodotto hermitiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.2.2 Applicazioni Φ-normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.2.3 Teorema spettrale hermitiano completo . . . . . . . . . . . . . . . . . . . 14

2.3 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.4 Un ritorno al caso reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.4.1 Complessificazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.4.2 Basi reali e complessificazione in coordinate . . . . . . . . . . . . . . . . . 192.4.3 Costruzione di basi reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3 Caratterizzazione del gruppo ortogonale 22

4 La teoria di Witt 254.1 Piani iperbolici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.2 Il teorema di completamento non degenere . . . . . . . . . . . . . . . . . . . . . . 264.3 Il teorema di estensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284.4 Il teorema di cancellazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294.5 Indice di Witt e decomposizione di Witt . . . . . . . . . . . . . . . . . . . . . . . 30

5 Forme canoniche di Jordan 335.1 Il teorema di decomposizione primaria . . . . . . . . . . . . . . . . . . . . . . . . 335.2 Specializzazione al caso triangolabile e riduzione alla nilpotenza . . . . . . . . . . 345.3 Basi cicliche e blocchi di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355.4 Forma canonica di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375.5 Endomorfismi non triangolabili su R ed esplosioni . . . . . . . . . . . . . . . . . 39

1

Page 4: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

2 INDICE

6 Cenni di Geometria Affine 416.1 Motivazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

6.1.1 Traslazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416.1.2 Sistemi lineari non omogenei . . . . . . . . . . . . . . . . . . . . . . . . . 416.1.3 Campi di vettori (vettori applicati) . . . . . . . . . . . . . . . . . . . . . . 41

6.2 Spazi e Applicazioni Affini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426.2.1 Nozioni di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426.2.2 Rappresentazioni matriciali di applicazioni affini . . . . . . . . . . . . . . 446.2.3 Caratterizzazione geometrica delle trasformazioni affini . . . . . . . . . . . 45

7 Quadriche 477.1 Classificazione affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

7.1.1 Caso senza centro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497.1.2 Caso a centro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

7.2 Classificazione isometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517.3 Complementi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

7.3.1 Fasci di coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527.3.2 Completamento a quadrato . . . . . . . . . . . . . . . . . . . . . . . . . . 537.3.3 Rette tangenti e assi delle coniche . . . . . . . . . . . . . . . . . . . . . . 537.3.4 Trasformazione di un’ellisse in una circonferenza . . . . . . . . . . . . . . 54

A Versioni 55

Page 5: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Capitolo 1

Dualità e teoremi diRappresentazione

1.1 Duale e biduale

Definizione 1.1. Sia V uno spazio vettoriale su K; V ∗ = Hom(V, K) è lo spazio duale di V.Gli elementi del duale di uno spazio vettoriale sono chiamati funzionali su V .

Dalla definizione si ha che se ϕ ∈ V ∗, allora ϕ : V → K è lineare.Sia B = {v1, . . . , vn} una base di V e ϕ ∈ V ∗; grazie all’isomorfismo di passaggio alle coordinatemandiamo V in Kn e poi applichiamo ϕ:

V[ ]B−→ Kn

MB{1}(ϕ)−→ K dove MB

{1}(ϕ) = (a1, . . . , an)

Si può quindi definire un isomorfismo di passaggio alle coordinate pure per lo spazio duale:V ∗

[ ]B∗−→ 1Kn

Definizione 1.2. B∗ = {v∗1 , . . . , v∗n} è detta base duale di V ∗ della base B se v∗i (vj) = δij,dove δij è il delta di Kroneker, che vale 1 per i = j e 0 per i 6= j.

Verifichiamo che B∗ è una base:

Proposizione 1.1. Sia V uno spazio vettoriale su K, sia B = {v1, . . . , vn} base di V , alloraB∗ = {v∗1 , . . . , v∗n} è base di V ∗ e dimV = dimV ∗.

Dimostrazione. Consideriamo la combinazione lineare α1v∗1 + · · · + αnv

∗n = 0 che rappresenta

l’applicazione nulla: 0(v1) = (α1v∗1 + · · · + αnv

∗n)(v1) = α1 = 0; iteriamo il procedimento

su tutti i vettori di B e otteniamo αj = 0 ∀ j, cioè i v∗j sono linearmente indipendenti.Consideriamo ϕ ∈ V ∗: ϕ(v1) = β1; iteriamo il procedimento come sopra e otteniamoϕ = β1v

∗1 + · · ·+ βnv

∗n, cioè i v∗j generano V ∗.

Definizione 1.3. Sia V uno spazio vettoriale su K; V ∗∗ = Hom(V ∗, K) si dice biduale di V.

Definiamo due isomorfismi ϕ, ψ tali che:

Vϕ−→ V ∗

ψ−→ V ∗∗

B 7−→ B∗ 7−→ B∗∗

3

Page 6: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

4 Dualità e teoremi di Rappresentazione | cap. 1

β = ψ ◦ ϕ è un isomorfismo tra V e V ∗∗; ψ e ϕ dipendono dalle scelta di B, mentre β è definitointrinsecamente e non dipende dalla scelta della base: si dice β è un isomorfismo canonico.

β : V −→ V ∗∗

v 7−→ β(v) : V ∗ −→ K

ϕ 7−→ ϕ(v)(1.1)

Proposizione 1.2. L’applicazione (1.1) ha le seguenti proprietà:

1. ∀ v β(v) ∈ V ∗∗

2. β è lineare

3. β è bigettiva

4. ∀B β = ψB ◦ ϕB

Dimostrazione.

1. Sia β(v) = αv e verifichiamo che questa applicazione è lineare:αv(ϕ+ ψ) = (ϕ+ ψ)(v) = ϕ(v) + ψ(v) = αv(ϕ) + αv(ψ)αv(λϕ) = (λϕ)(v) = λϕ(v) = λαv(ϕ)

2. β(v + w) = αv+w(ϕ) = ϕ(v + w) = ϕ(v) + ϕ(w) = αv(ϕ) + αw(ϕ)β(λw) = αλw(ϕ) = ϕ(λw) = λϕ(w) = λαw(ϕ)

3. β è lineare e dimV = dimV ∗∗, quindi basta dimostrare che β è iniettiva o surgettiva.Dato che Kerβ = 0 se e solo se β è iniettiva, supponiamo per assurdo che esistav 6= 0 ∈ Kerβ.Kerβ = {v ∈ V |β(v) = 0} = {v ∈ V | ∀ϕ ∈ V ∗ ϕ(v) = 0}; sia B = {v1, . . . , vn} basedi V e B∗ = {v∗1 , . . . , v∗n} base di V ∗, allora ∀ v 6= 0 ϕ(v) = (v∗1 + · · ·+ v∗n)(v) 6= 0 equindi Kerβ = 0

4. Sia B = {v1, . . . , vn} una base qualsiasi di V , verifichiamo che ψB ◦ ϕB = β, ovveroche ∀ vi ∈ B si abbia β(vi) = ψB ◦ ϕB(vi). Infatti se consideriamo ψB ◦ ϕB(vi) =ψB(v∗i ) = v∗∗i abbiamo che

v∗∗i (v∗j ) ={

1 se i = j0 se i 6= j

= v∗j (vi) = β(vi)(v∗j )

Visto che per ogni vettore di una base si ha che le due applicazioni lineari sonoequivalenti, si ha la tesi.

1.2 AnnullatoreDefinizione 1.4. Dato un sottospazio vettoriale W di V , si definisce annullatore di W il

seguente sottospazio del duale:

AnnW = {ϕ ∈ V ∗ |W ⊆ Kerϕ} (1.2)

Osservazione 1.1. Gli elementi dell’annullatore sono le equazioni necessarie per descrivere W ,ovvero tutti i funzionali che si annullano tramite un vettore di W .

ϕ ∈ AnnW ⇔ ∀w ∈W ϕ(w) = 0

Proposizione 1.3. Sia W ⊆ V un sottospazio vettoriale, sia BW = {w1, . . . , wm} base di We B = {w1, . . . , wm, wm+1, . . . , wn} base di V ; allora B∗W = {w∗m+1, . . . , w

∗n} è base di

AnnW

Dimostrazione. Dapprima dimostriamo che w∗m+1, . . . , w∗n ∈ AnnW : wj(wi) = δji e ∀ i < m+ 1

e ∀ j > m+ 1 si ha quindi che w∗j (wi) = 0.Sono linearmente indipendenti perché estratti dalla base duale, ora basta dimostrare che

Page 7: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 1.3 | Annullatore 5

generano AnnW : ϕ ∈ AnnW ⊆ V ∗ ⇔ ϕ = α1w∗1 + · · ·+αmw

∗m+αm+1w

∗m+1 + · · ·+αnw

∗n;

poiché ϕ ∈ AnnW , allora ϕ(w1) = 0, ma ϕ(w1) = α1w∗1(w1) = α1 e quindi α1 = 0. Si

itera il processo e si ottiene che ∀ i ∈ [1, m] α1 = · · · = αm = 0

Corollario. La dimensione dell’annullatore è:

dim(AnnW ) = dimV − dimW (1.3)

1.2.1 Proprietà dell’annullatore

Diamo una definizione alternativa di annullatore per un sottospazio U del duale di V .

Ann′(U) = {v ∈ V | g(v) = 0 ∀ g ∈ U} (1.4)

Mostriamo che a meno di un isomorfismo β tra V e V ∗∗ (1.1), le due definizioni di annullatore(1.2) e (1.4) sono equivalenti

Proposizione 1.4. Ann′(U) = β−1(Ann(U))

Dimostrazione. Dimostriamo dapprima l’inclusione ⊃: sia v ∈ β−1(Ann(U)) e quindi β(v) ∈Ann(U); se g ∈ U allora abbiamo che g(v) = β(v)(g) = 0⇒ v ∈ Ann′(U).Ora verifichiamo l’altra inclusione ⊂: sia v ∈ Ann′(U); se g ∈ U allora abbiamo cheβ(v)(g) = g(v) = 0⇒ β(v) ∈ Ann(U)⇒ v ∈ β−1(Ann(U)).

Osservazione 1.2. Notare che vale pure per (1.4) la formula delle dimensioni (1.3) e che se W èsottospazio vettoriale di V allora β−1(Ann(AnnW )) = W

Proposizione 1.5. Siano U, W sottospazi vettoriali; allora U ⊂W ⇔ AnnU ⊃ AnnW .

Dimostrazione. g ∈ AnnW ⇔ g(w) = 0 ∀w ∈W e in particolare g(u) = 0 ∀ v ∈ U ⊂W

Proposizione 1.6. Siano U, W sottospazi vettoriali; allora Ann(U +W ) = AnnU ∩AnnW .

Dimostrazione. Per la proposizione (1.5)

U ⊂ U +W ⇒ AnnU ⊃ Ann(U +W )W ⊂ U +W ⇒ AnnW ⊃ Ann(U +W )

quindi si è dimostrata l’inclusione Ann(U+W ) ⊂ AnnU ∩AnnW . Dimostriamo ora l’altrainclusione: g ∈ AnnU ∩ AnnW ⇒ ∀u ∈ U, ∀w ∈ W g(w) = 0 = g(u) ⇒ g(u + w) = 0 ⇒g ∈ Ann(U +W )

Proposizione 1.7. Siano U, W sottospazi vettoriali; allora Ann(U ∩W ) = AnnU + AnnW .

Dimostrazione. Consideriamo l’annullatore del secondo membro e per la proposizionne 1.6 si hache Ann(AnnU + AnnW ) = Ann(AnnU) ∩ Ann(AnnW ); tramite l’isomorfismo canonicoβ (1.1) otteniamo Ann′(AnnU + AnnW ) = U ∩W .Applichiamo un’altra volta l’annullatore e tenendo presente che Ann(Ann′) = id si trovala tesi.

Page 8: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

6 Dualità e teoremi di Rappresentazione | cap. 1

1.3 Applicazione traspostaDefinizione 1.5. Sia f : V →W lineare, la trasposta di f è:

tf : W ∗ −→ V ∗

ϕ 7−→ ϕ ◦ f (1.5)

Proposizione 1.8. Sia B base di V e D base di W . Sia f un applicazione lineare e tf la suatrasposta. Se A =MB

D (f) e B =MD∗

B∗(tf)allora B = tA.

Dimostrazione. Siano B = {v1, . . . , vm} base di V e D = {w1, . . . , wn} base di W e B∗ ={v∗1 , . . . , vm∗} e D∗ = {w∗1 , . . . , w∗n} le rispettive basi duali.Le matrici associate a f e tf sono rispettivamente A = (aij) e B = (bij); se scriviamol’immagine dei vettori di base abbiamo

f(vi) = a1iw1 + · · ·+ aniwn ∀ i = 1, . . . ,mtf(w∗j ) = b1jv

∗1 + · · ·+ bmjv

∗m ∀ j = 1, . . . , n

Combiniamo i funzionali e vettori per ottenere gli elementi delle due matrici associate:

tf(w∗j )(vi) = (b1jv∗1 + · · ·+ bmjv∗m)(vi) = bij

w∗j f(vi) = w∗j (a1iw1 + · · · aniwn) = aji

Infine si ha che ∀ i, j tf(w∗j )(vi) = w∗j f(vi)⇒ bij = aji ⇒ tA = B

Teorema 1.1 (rango della trasposta). Sia f un’applicazione lineare e tf la sua applicazionetrasposta, si ha che:

dim Im f = dim Im tf (1.6)

Dimostrazione. Sia tf : W ∗ → V ∗; allora dimW = dimW ∗ = dim Ker tf + dim Im tf .Bisogna dimostrare inoltre che:

dim Ker tf = dim Ann Im f (1.7)

Infatti

ϕ ∈ Ker tf ⇔ tf(ϕ) = ϕ ◦ f = 0⇔ ∀ v ∈ V ϕ(f(v)) = 0⇔ ϕ ∈ Ann Im f

Quindi utilizzando (1.7) e (1.3) si ha:

dimW = dim Im tf + dim Ann Im f = dim Im tf + dimW − dim Im f

Osservazione 1.3. Si può quindi dimostrare molto semplicemente un risultato già visto nel cor-so di Geometria I. Considerando la proposizione 4 e il teorema 1 si conclude che ∀A ∈mKn rnkA = rnk tA.

1.4 Teoremi di rappresentazioneDefinizione 1.6. Sia V uno spazio vettoriale e V ∗ il suo duale, Φ un prodotto scalare su V .

ϕ ∈ V ∗ si dice rappresentabile per mezzo di Φ se:

∃ v ∈ V tale che ∀x ∈ V ϕ(x) = Φ(v, x)

Si può allora definire l’applicazione FΦ:

FΦ : V −→ V ∗

v −→ ϕ t.c. ∀x ∈ V ϕ(x) = Φ(v, x) (1.8)

Page 9: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 1.4 | Teoremi di rappresentazione 7

Teorema 1.2 (rappresentazione).

Φ non degenere =⇒ FΦ è un isomorfismo (1.9)

Dimostrazione. Dimostriamo dapprima la linearità di FΦ

FΦ(v) = ϕ1 ∀x ∈ V ϕ1(x) = Φ(v, x)FΦ(w) = ϕ2 ∀x ∈ V ϕ1(x) = Φ(v, x)FΦ(v + w) = ϕ ∀x ∈ V ϕ(x) = Φ(v + w, x) = Φ(v, x) + Φ(w, x) = ϕ1(x) + ϕ2(x)

Verifichiamo ora che FΦ è isomorfismoDato che dimV = dimV ∗ basta dimostrare che l’iniettività dell’applicazione, che equivalea Ker FΦ = {0}.

KerFΦ = {v ∈ V | ∀x ∈ V Φ(v, x) = 0} = Rad Φ = {0}

Osservazione 1.4. V e V ∗ sono isomorfi, ma non in modo canonico, però se munisco V di unprodotto scalare non degenere, allora FΦ è un isomorfismo privilegiato tra (V,Φ) e (V ∗,Φ).

1.4.1 Spazio quozienteSia V uno spazio vettoriale e Z un sottospazio vettoriale di V e V/Z per la seguente relazione diequivalenza

∀ v, w ∈ V v ∼ w ⇔ v − w ∈ ZNotare la seguente proprietà tra classi di equivalenza

∀ v ∈ V ∀ z ∈ Z [v] = [v + z]

Definiamo pure l’applicaziona proiezione al quoziente π

π : V −→ V/Zv −→ [v]Z = [v]

Definiamo l’operazione somma e prodotto per scalari come segue

[v] + [w] = [v + w] ∀ v, w ∈ V

λ[v] = [λv] ∀ v ∈ V ∀λ ∈ K

Consideriamo l’applicazione (V,+, ·) π−→ (V/Z ,+, ·), la quale è

• lineare

• surgettiva

• Kerπ = Z

• dimV/Z = dimV − dimZ, per la formula delle dimensioni

Consideriamo una delle infinite decomposizioni di V in Z e un sottospazio U : V = Z ⊕ U . Larestrizione π|U è un isomorfismo perché il Kerπ|U = {0} quindi pure iniettiva.

Sia Φ un prodotto scalare su V e Z = Rad(Φ) e quindi abbiamo π : V −→ V/Rad(Φ). Definiamoora in maniera naturale un prodotto scalare su V/Rad(Φ)

Φ([v], [w]) = Φ(v, w)

Lemma 1.1. Φ è non degenere

Dimostrazione.

Rad(Φ) = {[v] ∈ V/Rad(Φ) | ∀ [x] ∈ V/Rad(Φ) Φ([v], [x]) = Φ(v, x)} = π(Rad(Φ)) = {[0]}

Page 10: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

8 Dualità e teoremi di Rappresentazione | cap. 1

1.4.2 Caratterizzazione dei funzionaliGli elementi di ImFΦ sono i funzionali rappresentabili per mezzo di Φ

ImFΦ = {ϕ rappresentabili}

Teorema 1.3 (caratterizazione).

ImFΦ = Ann(Rad Φ) (1.10)

Dimostrazione.

ϕ ∈ ImFΦ ⇒ ∀x ∈ Rad(Φ), ϕ(x) = Φ(x, v) = 0⇒ ϕ ∈ Ann(Rad(Φ))

Si è così dimostrata l’inclusione ImFΦ ⊆ Ann(Rad(Φ).Ora ci rimane da dimostrare che questi due spazi vettoriali hanno la stessa dimensioneovvero che dim(ImFΦ) > dim(Ann(Rad(Φ)). Consideriamo la trasposta della proiezione aquoziente π

tπ : V ∗/Rad(Φ) −→ V ∗

ϕ −→ ϕ ◦ π

Per la proprietà (1.6), la formula delle dimensioni e utilizzando Rad(Φ) = Kerπ si ha

dim(Imtπ) = dim(Imπ) = dimV − dim(Rad(Φ)) = dim(Ann(Rad(Φ))) (1.11)

Mi posso dunque ridurre a dimostrare che dim(ImFΦ) > dim(Imtπ). Consideriamo laseguente mappa

VFΦ−→ ImFΦ ⊆ Ann(Rad(Φ)) ⊆ V ∗

↓ πV/Rad(Φ)

FΦ−→ V ∗/Rad(Φ)

poiché Φ è non degenere, si ha che FΦ è isomorfismo, ovvero

∀ϕ ∈ V ∗Rad(Φ) ∃[v] ∈ VRad(Φ) tale che ∀ [x] ∈ VRad(Φ) ϕ([x]) = Φ([x], [v])

Applichiamo a ϕ ∈ V ∗Rad(Φ) l’applicazione tπ, si ottiene

tπ(ϕ) = ϕ ◦ π : Vπ−→ V/Rad(Φ)

ϕ−→ K

x −→ [x] −→ ϕ([x]) = Φ([v][x]) = Φ(x, v)

Si ha dunque che ∃v ∈ V tale che ∀x ∈ V tπ(ϕ)(x) = Φ(v, x), ovvero si ha che tπ(ϕ) èrappresentabile quindi Imtπ ⊆ ImFΦ.

Corollario.FΦ = tπ ◦ FΦ ◦ π

Dimostrazione. Nella dimostrazione è risultato che Imtπ ⊆ ImFΦ, e per (1.10) e (1.11) si ha

dim(Imtπ) = dim(ImFΦ) ⇒ Imtπ = ImFΦ

Inoltre si ha

KerFΦ = {v ∈ V |FΦ = ϕv : Φ(v, x) = 0∀x ∈ V } = Rad(Φ) = Kerπ

Dato che l’applicazione FΦ è un isomorfismo e si sono ottenute le due identità precedentiil corollario è dimostrato.

Page 11: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 1.5 | Appendice - Spazi non finitamente generati 9

Osservazione 1.5. Un’equivalenza, molto utile per verificare se un funzionale (ϕ) è rappresenta-bile per mezzo del prodotto scalare (Φ), che discende direttamente dal teorema di caratte-rizzazione è:

ϕ è rappresentabile ⇔ Rad(Φ) ⊆ Kerϕ (1.12)

Osservazione 1.6. Sia Z un sottospazio vettoriale di V , la controimmagine FΦ(Ann(Z)) equivalea Z⊥

FΦ(Ann(Z)) = {v ∈ V |∀ zϕv(z) = Φ(z, v) = 0} = Z⊥

Se consideriamo la restrizione FΦ|Z⊥ possiamo trovare la formula esatta per dim(Z⊥).Abbiamo che Im(FΦ|Z⊥) = Ann(Z) ∩ ImFΦ e Ker(FΦ|Z⊥) = Rad Φ ∩ Z⊥ = Rad Φ, quindi laformula della dimensioni è:

dim(Z⊥) = dim(Rad Φ) + dim(Ann(Z) ∩ ImFΦ)

Utilizzando la formula di Grassman, la formula delle dimensioni e (1.3), si ottiene:

dim(Z⊥) = 2 dim(V )− dim(Z)− dim(AnnZ + ImFΦ) (1.13)

Se Φ è non degenere si ha che ImFΦ = V ∗ quindi dim(Ann(Z) + ImFΦ) = dim(V )∗ = dim(V ),quindi la (1.13) diventa

dim(Z⊥) = dim(V )− dim(Z)

Se Φ è degenere si ha che ImFΦ = Ann(Rad(Φ)) e per la proprieta (1.6) si ha che Ann(Z) +Ann(Rad(Φ)) = Ann(Z ∩ Rad(Φ)), per (1.3) la (1.13) diventa

dim(Z⊥) = dim(V )− dim(Z) + dim(Z ∩ Rad(Φ))

1.5 Appendice - Spazi non finitamente generatiFino ad ora abbiamo sempre lasciato sottointeso, per non appesantire il testo, che gli spazi vetto-riali considerati fossero finitamente generati. Considereremo principalmente R[x] come esempiodi spazio vettoriale, ovviamente, non finitamente generato.Prima di iniziare a studiare R[x] sono necessarie alcune definizioni sulla cardinalità di un insieme

Definizione 1.7.

• Due insiemi (X e Y ) hanno la stessa cardinalità (|X| = |Y |) se ∃ una bigezione trai due insiemi

• Un insieme A si dice numerabile se ha la stessa cardinalità di N (|N | = |A|)• Se X è insieme finito con n elementi la sua cardinalità sarà |X| = n

• Si ha |X| < |Y | se ∃ f : X → Y iniettiva ma |X| 6= |Y |

Definizione 1.8. B = {1, x, ..., xn, ...} si dice base canonica di R[x]. Dimostrare che B ècomposta da vettori che generano R[x] e sono linearmente indipendenti è banale. Si notianche che B è un insieme numerabile.

Consideriamo un applicazione lineare f : R[x] −→ W allora come per una quasiasi applicazionelineare su uno spazio finitamente generato si ha

Teorema 1.4 (iniettività in spazi non finitamente generati).

1. f iniettiva ⇔ Ker(f) = {0}2. f iniettiva ⇔ f(1), f(x), . . . , f(xn), ... sono linearmente indipendenti

Dimostrazione.

1 ⇒ f iniettiva: f(v1) = f(v2)⇒ v1 = v2

Dato che f è lineare si ha f(0) = 0 quindi se consideriamo v 6= 0 abbiamo f(v) 6= 0, ovveroKer f = {0}

Page 12: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

10 Dualità e teoremi di Rappresentazione | cap. 1

1 ⇐ f(v1) = f(v2)⇔ f(v1)− f(v2) = 0⇔ f(v1 − v2) = 0Dato che Ker f = {0} allora v1 = v2, ovvero f è iniettiva

2 ⇒ a1p1 + . . .+ ampm = 0 con pi ∈ {f(1), f(x), . . . , f(xn), ...}, si può inoltre scriveref(a1q1 + . . .+ amqm) = 0 con qi ∈ {1, x, . . . , xn, ...},Dato che a1q1 + . . .+amqm ∈ Ker f allora a1q1 + . . .+amqm = 0 e quindi ai = 0∀ i, ovverola tesi.

2 ⇐ f(a1q1 + . . .+ amqm) = a1f(q1) + . . .+ amf(qm) = 0, con qi ∈ {1, x, . . . , xn, ...},dato che f(1), f(x), . . . , f(xn), ... sono linearmente indipendenti ai = 0∀ i e quindi Ker f ={0}, ovvero f è iniettiva.

Tuttavia non vale la seguente propietà per gli endomorfismi

f iniettiva :; f surgettiva

dove f ∈ End(V ) e V è uno spazio vettoriale non finitamente generato. Diamo due sempliciesempi per mostrare la veridicità dell’affermazione:

; p(x) −→ xp(x) è iniettiva, ma non surgettiva; 1 /∈ Imf

: p(x) −→ ddxp(x) è surgettiva, ma non iniettiva; d

dx1 = ddx2

Osservazione 1.7. Se consideriamo W = Span(D), con D = {x, , . . . , . . . , xn, . . . }, allora avremoche W è sottospazio vettoriale di R[x] e che W e R[x] sono isomorfi (f : p(x) −→ xp(x)).

Studiamo ora le differenze tra spazi duali finitamente genereti e non. La definizione di spazioduale non va modificata, ad esempio lo spazio duale di R[x] è R[x]∗ = Hom(R[x],R).Se consideriamo invece tale applicazione:

ψ′B : R[x] −→ R[x]∗

B −→ B∗(1.14)

dove B = {v0, . . . , vn, . . . } è la base canonica di R[x] e B∗ = {v∗0 , . . . , v∗n, . . . } tale che v∗j (vi) =

δij ={

1 i = j0 i 6= j

, vedremo che ψB così definito non è un isomorfismo.

Proposizione 1.9. i vettori di B∗ sono linearmente indipendenti

Dimostrazione. Siano p1, . . . , pm ∈ B∗ e q1, . . . , qm ∈ B tale che pi = q∗iSia a1p1 + . . .+ ampm = 0, 0 è l’applicazione nulla, allora si ha

(a1p1 + . . .+ ampm)(qj) =∑i(aipi)(qj) = aj

(a1p1 + . . .+ ampm)(qj) = 0(qj) = 0

dunque aj = 0∀ j, ovvero i vettori di B∗ sono linearmente indipendenti

Corollario.R[x]

ψB−→ Span(B∗)ψB∗−→ Span(B∗∗)

B −→ B∗ −→ B∗∗

Si ha che ψB, ψB∗ e β = ψB∗ ◦ ψB sono isomorfismi

Dimostrazione. Dato che i vettori di B∗ e di B∗ sono linearmente indipendenti allora si ha cheψB e ψB∗ sono iniettive (per il secondo punto dell’ultimo teorema visto). Dato che sonoovviamente surgettive sono isomorfismi, come pure la loro composizione.

Verifichiamo ora che invece che @ un isomorfismo tra R[x] e R[x]∗, ovvero che l’applicazione(1.14) non è isomorfismo.

Page 13: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 1.5 | Appendice - Spazi non finitamente generati 11

Proposizione 1.10. L’applicazione (1.14), ψ′B non è surgettiva

Dimostrazione. Ci basta un controesempio, ovvero trovare un funzionale ϕ ∈ R[x]∗ ma ϕ /∈Span(B∗). Sia t ∈ R fissato allora definiamo il seguente duale

ϕt : R[x] −→ R

xn −→ tn(1.15)

Sia a1p1 + . . .+ ampm ∈ Span(B∗), dove ai ∈ R e pi ∈ B∗.Abbiamo che ∃xk tale che (a1p1 + . . . + ampm)(xk) = 0, ma se ipotizziamo t 6= 0 alloraϕt(xk) = tk 6= 0 ∀ k ∈ N quindi ϕt /∈ Span(B∗)

Osservazione 1.8. Si ha che Span(B∗) ⊂ R∗, ovvero la dimensione dello spazio duale aumentainvece che rimanere costante come per gli spazi finitamente generati.

Corollario. Sia X = {ϕt}t∈R, i suoi elementi sono linearmente indipendenti

Dimostrazione. Sia t1, . . . , tm ∈ R tali che ti 6= tj se i 6= jSe ho ϕ = a1ϕt1 + . . . + amϕtm = 0 dimostro, tramite un polinomio test, un coefficientealla volta il fatto che siano nulli. Il polinomio test per a1 è

(x− t2)(x− t3) . . . (x− tm) = p(x) ∈ R[x]

ϕ(p(x)) = a1(t1 − t2) . . . (t1 − tm) + a2(t2 − t2)(t2 − t3) . . .+ am(tm − t2) . . . (tm − tm) == a1(t1 − t2) . . . (t1 − tm) = 0

dato che (t1 − t2)(t1 − t3) . . . (t1 − tm) 6= 0 si ha a1 = 0. Si ripete la stessa operazione pert2 . . . tm e si ottiene così la tesi.

Prima di dimostrare la tesi che ci assicuri che R[x] non è isomorfo a R[x]∗, bisogna citare ancoraun risultato sulla cardinalità degli insiemi: |R| > |N| (famoso risultato di Cantor).

Teorema 1.5. @ isomorfismo tra R[x] e R[x]∗

Dimostrazione. Svolgiamo la dimostrazione per assurdo.Supponiamo ∃ f : R[x]∗ → R[x] isomorfismo, allora consideriamo l’insieme A = f(X) ⊂R[x] i cui elementi sono linearmente indipendenti perchè X = {ϕt}t∈R ⊂ R[x]∗. Lacardinalità di A è: |A| = |R|.Consideriamo R[x], abbiamo che

R ⊆ A0

R1[x] \R ⊆ A1

R2[x] \R1[x] ⊆ A2

. . . . . .Rn[x] \Rn−1[x] ⊆ An

. . . . . .

Si ha che ∀ i Ai ⊆ Ri[x], dimRi[x] = i+1 e gli elementi diAi sono linearmente indipendenti,quindi (dato che i vettori linearmente indipendenti in Ri[x] non possono essere più di i+ i)∀ i Ai è un insieme finito, inoltre si ha che A = A0∩A1∩. . . An∩. . . , dunque A è numerabile:eccoci arrivati all’assurdo.

Page 14: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Capitolo 2

Complementi sul teoremaspettrale

2.1 Applicazione aggiunta

Definizione 2.1.Sia V uno spazio vettoriale, f : V → V un’applicazione lineare, Φ un prodotto scalare nondegenere e FΦ l’applicazione definita in (1.8).Allora f∗ = F−1

Φ ◦ tf ◦ FΦ si dice endomorfismo aggiunto di f rispetto a Φ

Vf∗−→ V

FΦ ↓ ↑ F−1Φ

V ∗tf−→ V ∗

Possiamo dunque definire l’applicazione tra endomorfismi di V

End(V ) −→ End(V )f −→ f∗ = F−1

Φ ◦ tf ◦ FΦ(2.1)

Cerchiamo ora una proprietà per caratterizzare l’endomorfismo aggiunto

Lemma 2.1. Se f∗ è l’endomorfismo aggiunto di f rispetto a Φ, allora

Φ(v, f(x)) = Φ(f∗(v), x) (2.2)

Dimostrazione. Dalla definizione (2.1) si ha

VFΦ−→ V ∗

tf−→ V ∗F−1

Φ→ Vv → ϕv −→ ϕv ◦ f −→ y = f∗(v)

Utilizzando la definizione di FΦ (1.8), otteniamo

∀x ∈ V ϕv(f(x)) = Φ(v, f(x))∀x ∈ V (ϕ ◦ f)(x) = Φ(f∗(v), x)

Da cui si ritrova la (2.2).

12

Page 15: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 2.2 | Applicazione aggiunta 13

Per dimostrare la freccia inversa definiamo le seguenti applicazioni

End(V ) b−→ Bil(V × V ∗,K) f ∈ End(V ) b(f) : (x, ϕ) → ϕ(f(x))

End(V ∗) b∗−→ Bil(V × V ∗,K) g ∈ End(v∗) b∗(g) : (x, ϕ) → g(ϕ)(x)(2.3)

Proposizione 2.1. Le applicazioni b e b∗ sono isomorfismi

Dimostrazione. Dato che le dimensioni degli insiemi di partenza e di arrivo sono uguali, bastadimostrare che b e b∗ sono iniettive, dimostriamo dunque per assurdo che Ker(b) = {0} erispettivamente Ker(b∗) = {0}

Ker(b) = {f ∈ End(V )|b(f) = 0} = {f ∈ End(V )|∀ (x, ϕ) ∈ V × V ∗ ϕ(f(x))}Se per assurdo ∃f 6= 0 ∈ Ker(b) allora ∃x ∈ V tale che f(x) = y 6= 0. Sia B = {y, . . . , yn}una base di V e B∗ = {(y∗, . . . , y∗n} la rispettiva base duale. Quindi y∗(y) = 1 ⇒ f /∈Ker(b).

Corollario. Sia f ∈ End(V ) allora ∃! g ∈ End(V ∗) tale che b(f) = b∗(g).

Proposizione 2.2. Sia f ∈ End(V ) e g ∈ End(V ∗); allora b(f) = b∗(g) ⇔ g = tf .

Dimostrazione. Per il corollario 3 si ha

b(f) = b∗(g) ⇔ ∀ (x, ϕ) ∈ V × V ∗ ϕ(f(x)) = (ϕ ◦ f)(x) = tf(ϕ)(x) = g(ϕ)(x) ⇔ g = tf

Corollario. Sia V uno spazio vettoriale e Φ un prodotto scalare non degenere su V .

f∗ è l’endomorfismo aggiunto di f ⇔ ∀x, v ∈ V Φ(f(x), v) = Φ(x, f∗(v))

Dimostrazione. L’implicazione ⇒ è stata dimostrata nel lemma 2, dimostriamo ora l’implica-zione inversa.Dato che Φ è non degenere per (1.9) si ha che un funzionale ϕ ∈ V ∗ è rappresentato da unvettore v ∈ V , dunque se vale la (2.2) e b(f) = b∗(tf) si ha

b(f)(x, ϕ) = ϕ(f(x)) = Φ(f(x), v) = Φ(x, g(v)) = b∗( tf)(ϕ, x) = tf(ϕ)(x)

Verifichiamo ora che g = f∗

g(v) = F−1Φ (Φ(x, g(v))) = F−1

Φ ( tf(ϕ)(x)) = F−1Φ ◦ tf ◦ ϕ(x) = F−1

Φ ◦ tf ◦ FΦ(v) = f∗(v)

Diamo ora una descrizione matriciale dell’aggiunta di un endomorfismo.Sia V uno spazio vettoriale, B una base di V , Φ un prodotto scalare non degenere e f ∈ End(V ).Le matrici associate a Φ e f nella base B sono: M = MB(Φ) e A = MB

B(f). Indichiamo conA∗ la matrice associata a f∗.Siano v, w ∈ V e x = [v]B, y = [w]B i rispettivi vettori coordinate. Considerando la caratteristicadell’aggiunta di f (2.2) avremo

∀x, y ∈ Kn t(Ax)My = txMA∗y

Che possiamo riscrivere∀x, y ∈ Kn tx( tAM)y = tx(MA∗)y

Avremo dunque che la matrica associata a f∗ è

A∗ = M−1 tAM (2.4)

Verifichiamo che la formulazione della matrice associata a f∗ (2.4) sia coerente con il cambio dibase per endomorfismi e per prodotti scalari.Siano B e D due basi di V e P la matrice di cambiamento di base. Avremo dunque nella baseB la (2.4) e nella base D :

( tPMP )−1 t(P−1AP )( tPMP ) = P−1(M−1 tAM)P = P−1A∗P

A∗ è coerente, si trasforma come gli endomorfismo di V

Page 16: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

14 Complementi sul teorema spettrale | cap. 2

2.2 Teorema spettrale hermitiano completo

2.2.1 Prodotto hermitianoDefinizione 2.2. Sia V uno spazio vettoriale su C, Φ : V×V → C si dice prodotto hermitiano

se valgono le seguenti proprietà:1. Φ(v1 + v2, w) = Φ(v1, w) + Φ(v2, w) ∀ v1, . . . , w ∈ V2. Φ(v, w1 + w2) = Φ(v, w1) + Φ(v, w2) ∀ v, . . . , w2 ∈ V3. Φ(λv,w) = λΦ(v, w) = Φ(v, λw) ∀ v, w ∈ V e ∀λ ∈ C4. Φ(v, w) = Φ(w, v) ∀ v, w ∈ V

Osservazione 2.1. Φ(v, v) = Φ(v, v) ⇒ Φ(v, v) ∈ R∀ v ∈ V ; dunque oltre a Rad(Φ) e spazioortogonale si possono applicare al prodotto hermitiano pure le definizioni di segnatura e dispazio definito positivo (negativo), viste per il prodotto scalare sui reali.

Definizione 2.3. Una matrice M ∈n Kn si dice hermitiana se tM = M

Se Φ è un prodotto hermitiano su V , vale la relazione

Φ(v, w) = txMy

dove M = mB è una matrice hermitiana, [v]B = x e [w]B = y (B è una base di V ).

Sono equivalenti pure le considerazioni tra un endomorfismi aggiunto rispetto ad un prodot-to hermitiano e rispetto ad un prodotto scalare di f . f∗ è sempre caratterizzato dalla relazione(2.2). L’unica modifica è nella descrizione matriciale (2.4), si ha

A∗ = tM−1 tA tM (2.5)

2.2.2 Applicazioni Φ-normaliDefinizione 2.4. Sia V un spazio vettoriale, Φ un prodotto hermitiano definito positivo, un’ap-

plicazione lineare f tale che f ◦ f∗ = f∗ ◦ f si dice Φ-normale

Osservazione 2.2.1. f∗ = f ⇔ f è autoaggiunta2. f∗ = −f ⇔ f è anti-autoaggiunta3. f∗ = f−1 ⇔ f è unitaria

Definizione 2.5. U(Φ) = {f ∈ End(V )|f−1 = f∗} è detto gruppo unitario.

Osservazione 2.3. Ecco altri modi equivalenti per definire una funzione unitaria:• f è detta unitaria se Φ(f(v), f(w)) = Φ(v, w)∀ v, w ∈ V .• f è detta unitaria se f∗ ◦ f = f ◦ f∗ = id

• f è detta unitaria se la matrice associata a f in una base ortonormale è A e si haA∗A = AA∗ = I

2.2.3 Teorema spettrale hermitiano completoSia V uno spazio vettoriale su C, Φ un prodotto scalare hermitiano definito positivo e f ∈ End(V )

Lemma 2.2. Siano f, g ∈ End(V ) tali che f ◦ g = g ◦ f , allora

∀λ ∈ Spettro(f) Vλ(f) è g-invariante (2.6)

Dimostrazione.

∀ v ∈ Vλ(f) f(g(v)) = g(f(v)) = g(λv) = λg(v) ⇒ g(v) ∈ Vλ(f)

Page 17: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 2.2 | Teorema spettrale hermitiano completo 15

Lemma 2.3. Sia f Φ-normale

λ ∈ Spettro(f) ⇔ λ ∈ Spettro(f∗) (2.7)

Dimostrazione. Basta dimostrare che Vλ(f) ⊆ Vλ(f∗), l’inclusione opposta si ottiende dal fattoche (f∗)∗ = f (al posto di f consideriamo f∗).Se v ∈ Vλ(f) per (2.6) si ha che f∗(v) ∈ Vλ(f) quindi f∗(v)− λv ∈ Vλ(f). Poiché Φ|Vλ(f)

è definito positivo per dimostrare che f∗(v)− λv = 0 basta dimostrare che

∀w ∈ Vλ(f) Φ(f∗(v)− λv,w) = 0

Infatti

Φ(f∗(v)− λv,w) = Φ(f∗(v), w)− Φ(λ,w) = Φ(v, f(w))− λΦ(v, w) =

= Φ(v, λw))− λΦ(v, w) = λΦ(v, w)− λΦ(v, w) = 0

Osservazione 2.4. Sia λ ∈ Spettro(f) e λ ∈ Spettro(f∗)

• se f è autoaggiunta allora λ = λ ∈ R• se f è anti-autoaggiunta allora λ = −λ ∈ CrR = iC

• se f è unitaria allora λ = eiθ |λ| = 1, perché

Φ(v, v) = Φ(f(v), f(v)) = |λ|2 Φ(v, v)

Teorema 2.1 (spettrale hermitiano completo).

∃B ortonormale che diagonalizza f ⇔ f è Φ-normale (2.8)

Dimostrazione. Dimostriamo separatamente le due freccie

⇒ Sia B una base di V , A la matrice associata ad f nella base B e M la matricehermitiana associata al prodotto scalare Φ. Siano x, y ∈ Kn i vettori delle coordinaterispettivamente di v, w ∈ V , avremo quindi

Φ(f(v), w) = t(Ax)My = txMA∗y = Φ(v, f∗(w))

Da cui si ricava la descrizione matriciale per l’aggiunta di f rispetto a un prodottohermitiano (2.5). Se consideriamo una base ortonormale per Φ, D , la matrice associataa Φ sarà l’identità, M = I, e la matrice associata ad f sarà diagonale, mD

D = D.Applicando la formula (2.5), la matrice associata a f∗ sarà

D∗ = tI−1 tDI = tD

Abbiamo quindi che pure l’aggiunta è una matrice simmetrica, dato che il prodottotra due matrici simmetriche è commutativo avremo che D∗D = DD∗, ovvero che f èΦ-normale.

⇐ La dimostrazione del teorema sarà per induzione su n = dimVBase induttiva: è ovvio che per n = 1 vale la tesiPasso induttivo: verifichiamo che n− 1⇒ nSia v 6= 0 ∈ Vλ(f). Dato che Φ è definito positivo, dunque pure una sua restrizione,possiamo scomporre in somma diretta V = Span(v)⊕ ⊥Span(v) = Span(v)⊕W . Ladimensione di W è n−1, per applicare l’ipotesi induttiva basta dunque verificare che:Φ|W è definito positivo, W è f -invariante e f |W è Φ|W -normale.Se Φ è definito positivo allora anche Φ|W è definito positivo. W è f -invariante se∀w ∈ W Φ(f(w), v) = 0. Utilizzando la caratterizzazione della funzione aggiunta(2.2) e in seguito il lemma 4 (2.7) si ottiene

Φ(f(w), v) = Φ(w, f∗(v)) = Φ(v, λ) = λΦ(v, w) = 0

Page 18: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

16 Complementi sul teorema spettrale | cap. 2

dato che W = ⊥Span(v). Infine, l’aggiunta di f |W è f∗|W e dunque, dato che f èΦ-normale, f |W è Φ|W -normale.Applicando l’ipotesi induttiva possiamo affermare che ∃B = {v, . . . , vn} base orto-normale per Φ|W di W che diagonalizza f |W , ma allora B′ = {v, . . . , . . . , vn} è baseortonormale di V che diagonalizza f .

2.3 ApplicazioniVediamo ora una serie di applicazioni del teorema spettrale hermitiano completo, dimostrandoalcune proprietà delle funzioni diagonalizzabili

Lemma 2.4. Sia V spazio vettoriale su C e f ∈ End(V )

fdiagonalizzabile ⇔ ∃Φ definito positivo tale che f sia Φ-normale

Dimostrazione. L’implicazione ⇐ è ovvia considerando il teorema spettrale. L’implicazioneopposta ⇒ invece si dimostra scegliendo una base B che diagonalizza f e definendo unprodotto scalare Φ tale che la sua matrice associata nella base B è mB = I, ciò implicache f è Φ-normale.

Lemma 2.5. Sia f ∈ End(V ) diagonalizzabile e W ⊆ V un sotto spazio vettoriale f -invariante,allora f |W è diagonalizzabile

Dimostrazione. Sia Φ definito positivo tale che f sia Φ-normale, allora (come già dimostrato nelteorema spettrale) Φ|W è definito positivo e f |W è Φ|W -normale. Quindi per il teoremaspettrale (2.8) f |W è diagonalizzabile.

Lemma 2.6. Siano f, g ∈ End(V ) diagonalizzabili

∃ una base di V che diagonalizza ⇔ f ◦ g = g ◦ fsimultaneamente f e g

Dimostrazione. Dimostriamo le due freccie separatamente

⇒ Sia v vettore della base che diagonalizza simultaneamente, allora avremo

f(v) = λv f(g(v)) = f(µv) = λµvg(v) = µv g(f(v)) = g(λv) = µλv

dunque abbiamo che g ◦ f = f ◦ g.⇐ Se g ◦ f = f ◦ g, come abbiamo visto nel lemma 3 (2.6), allora ogni Vλ(f) è g-invariante. Inoltre per la seconda applicazione, se g è diagonalizzabile allora pure g|Vλ(f) èdiagonalizzabile, dunque posso scomporre in somma diretta un autospazio di f come segue

Vλi(f) = Vλi1(g|Vλi )⊕ . . .⊕ Vλis(g|Vλi )

f è diagonalizzabile su V dunque possiamo scrivere la seguente somma diretta

V = Vλ1(f)⊕ . . .⊕ Vλn(f)

Ora possiamo scomporre in questa maniere ogni autospazio di f e ottenere dunque talescomposizione

V = Vλ11(g|Vλ1)⊕ . . .⊕ Vλ1s(g|Vλ1

)⊕ . . .⊕ Vλn1(g|Vλn )⊕ . . .⊕ Vλnz (g|Vλn )

da cui possima estrarre degli autovettori sia per g che per f che sono una base di V

Page 19: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 2.4 | Applicazioni 17

Definizione 2.6. Sia (V,Φ) uno spazio vettoriale munito di un prodotto scalare definito positivo.Una applicazione f autoaggiunta è detta definita positiva se ∃ψ definito positivo tale che

∀ v, w ∈ V ψ(v, w) = Φ(f(v), w)

Lemma 2.7. Sia (V,Φ) uno spazio vettoriale munito di un prodotto scalare definito positivo,f ∈ End(V ) autoaggiuanta e definita positiva,

⇒ ∃! g ∈ End(V ) autoaggiunto e definito positivo tale che g2 = f (2.9)

Dimostrazione. Per il teorema spettrale (2.8) ∃ una base ortonoramale B tale che la matricieassociata ad f è del tipo λ1 0

. . .0 λn

Con tutti gli autovalori λi > 0 ∈ R perché f è autoaggiunta e definita positiva. Allora peril teorema di esistenza ed unicità della radice ∃! g tale che la sua matrice associata è deltipo

√λ1 0

. . .0

√λn

dunque g2 = f .

Osservazione 2.5. Lo stesso argomento utilizzato per dimostrare la quarta applicazione al teore-ma spettrale, vale pure per dimostrare che ∃! g tale che gk = f ∀ k = 1, 2, . . .

Lemma 2.8. Sia (V,Φ) con Φ definito positivo e f ∈ GL(V ), allora ∃! A,U ∈ End(V ) tali che

• A è autoaggiunta e definita positiva• U è un unitaria per Φ

• f = AU

Dimostrazione. Sia f ◦ f∗ una funzione autoaggiunta e definita positiva ∀ f ∈ GL(V ). Infatti

(f ◦ f∗)∗ = f ◦ f∗

Per la quarta applicazione (2.9), ∃! A autoggiunta e definita positiva tale che A2 = f ◦ f∗.Quindi f = AU dove U = A−1 ◦ f unitario e unico (perchè unica A). Verifichiamo che Uappartenga al gruppo unitario di (V,Φ), ovvero

Uunitario ⇔ Φ(v, w) = Φ(U(v), U(w)) ∀ v, w ∈ V

Infatti

Φ(A−1 ◦ f(v), A−1 ◦ f(w)) = Φ(A−1 ◦ f ◦ f∗ ◦ f∗−1(v), A−1 ◦ f(w)) =

Ricordandosi che f ◦ f∗ = A2 e che A è autoaggiunta, si ottiene

Φ(A ◦ f∗−1(v), A−1 ◦ f(w)) = Φ(v, f−1 ◦A∗ ◦A−1 ◦ f(w)) = Φ(v, w)

Osservazione 2.6. Con un ragionamento simile si può anche dimostrare l’esistenza di un endo-morfismo U ′ unitario e di un endomorfismo A′ autoaggiunto e definito positivo tali chef = U ′A′. U ′ ed A′ non sono in generale rispettivamente uguali ad U e A.

Definizione 2.7. Due endomorfismi U e A tali che U è unitario, A è autoaggiunto e definitopositivo e UA = f o AU = f si dicono una decomposizione polare di f .

Page 20: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

18 Complementi sul teorema spettrale | cap. 2

2.4 Un ritorno al caso reale

Dopo aver approfondito le applicazioni del teorema spettrale hermitiano, attraverso la ’comples-sificazione’ studiamo le conseguenze che questo teorema ha su delle applicazioni definite su unospazio vettoriale su R.

2.4.1 Complessificazione

Questo metodo ci permette costruirci uno spazio vettoriale su C, VC, a partire da uno spaziovettoriale su R.

V spazio vettoriale su R −→ VC = V × V spazio vettoriale su C

Le operazioni somma e prodotto per scalare definite su questo spazio vettoriale (VC,+, ·) sono

+ : VC × VC −→ VC((v, w), . . . , w′)) −→ (v + v′, w + w′)

· : C× VC −→ VC(t, (v, w)) −→ (tv, tw)

Inoltre possiamo identificare una notazione per VC con il seguente isomorfismo

V × V ←→ V + iV(v, w) ←→ v + iw

e per mezzo di tale notazione definiamo la moltipliclazione tra due vettori di VC

(x+ iy)(v + iw) = (xv − yw) + i(yv + xw)

Osservazione 2.7. Notare che V ⊂ VC, dato che possiamo identificare v ∈ V come segue

v ↔ v + i0 ∈ V + iVv ↔ (v, 0) ∈ V × V

Definizione 2.8. è detta coniugio tale applicazione

VC−←→ VC

(v, w) ←→ (v,−w)(2.10)

Studiamo ora una generica applicazione fC tra lo spazio complesso VC. Dapprima imponiamotale propietà

fC(v) = f(v) ∀ v ∈ V

dove f è un applicazione tra lo spazio vettoriale reale V .Vediamo ora il concetto di linearità

Definizione 2.9. Sia fC : VC −→ VC quest’applicazione è C-lineare se

fC(v + iw) = fC(v) + ifC(w) = f(v) + if(w) (2.11)

Infine sottolineiamo le differenze tra un prodotto hermitiano e un prodotto scalare su un spaziovettoriale complesso.Definiamo dapprima un prodotto scalare sullo spazio reale V

Φ : V × V −→ R

Se consideriamo i due vettori di VC z1 = v1 + iw1 e z2 = v2 + iw2 possiamo scrivere

Scalare ΦC(z1, z2) = Φ(v1, v2)+iΦ(v1, w2) + iΦ(w1, v2)−Φ(w1, w2)Hermitiano ΦC(z1, z2) = Φ(v1, v2)−iΦ(v1, w2) + iΦ(w1, v2)+Φ(w1, w2)

Page 21: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 2.4 | Un ritorno al caso reale 19

2.4.2 Basi reali e complessificazione in coordinateDefinizione 2.10. Sia B = {v1, . . . , vn} dove v1, . . . , vn ∈ V .

Se B è base sia di V che di VC è detta base reale di VC.

Lemma 2.9. Sia B = {v1, . . . , vn} una base di V allora B è base di VC

Dimostrazione. Dimostriamo che i vettori di B generano VC. Siano v, w ∈ V , possiamo dunquescrivere

v = a1v1 + . . . anvn con ai ∈ R ∀ i = 1, . . . , n

w = b1w1 + . . . bnwn con bi ∈ R ∀ i = 1, . . . , n

allora per un generico vettore v + iw ∈ VC si può scrivere

v + iw = (a1 + ib1)v1 + . . . (an + ibn)vn con ai + ibi ∈ C ∀ i = 1, . . . , n

Dimostriamo ora che v1, . . . , vn sono linearmente indipendenti. Consideriamo la seguentecombinazione lineare

λ1v1 + . . . λnvn con λj = aj + ibj ∈ C

Possiamo riscriverlan∑j=1

λjvj =n∑j=1

(aj + ibj)vj =n∑j=1

(aj)vj + i

n∑j=1

(bj)vj = 0

Dato che aj , bj ∈ R e che B è base di V si ha che aj = bj = λj = 0 ∀ j = 1, . . . , n

Dopo aver trovato una base furba per VC, la base reale, effettuiamo il passaggio alle coordinate.Sia B = {v1, . . . , vn} la base reale di V , allora avremo le seguenti applicazioni coordinate

V[ ]B−→ Rn

VC[ ]B−→ Cn

Se consideriamo le seguenti applicazioni lineari

f : V −→ V fC : VC −→ VC

le rispettive matrici associate nella base B sono

mBB(f) = mB

B(fC)

perché fC(vi) = f(vi) per ogni vi ∈ B

Osservazione 2.8. Diamo ora una descrizione matriciale delle funzioni Φ-normali, sia per gli spazivettoriali su R, che quelli su C

f autoaggiunta A = tA fC autoaggiunta A = tAf anti-autoaggiunta A = − tA fC anti-autoaggiunta A = − tA

f ortogonale P−1 = tP fC unitaria P−1 = tP

Infine mostriamo quale è la versione matriciale del prodotto scalare e quale sono le differenzetra le due forme bilineari. Come per le applicazioni lineari se si sceglie la base reale B di VC siottengono le seguenti matrici associate

mB(Φ) = mB(ΦC) = mB(ΦC) = M

La differenza tra prodotto scalare e hermitiano è nella formulazione matriciale del prodotto.Infatti se [u]B = z e [k]B si ha

Scalare ΦC(u, k) = tzMwHermitiano ΦC(u, k) = tzMw

Page 22: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

20 Complementi sul teorema spettrale | cap. 2

2.4.3 Costruzione di basi realiSia Φ un prodotto scalare definito positivo su V e ΦC un prodotto hermitiano definito positivosu VC. Sia f : V −→ V un applicazione Φ-normale e fC : VC −→ VC un applicazione ΦC-normale.

Dopo aver mostrato il processo di complessificazione utilizzeremo alcune sue proprietà per co-struire delle basi reali ’diagonalizzanti speciali’. Ovvero partendo da delle basi ΦC-ortonormali edi autovettori per fC troveremo delle basi reali di VC e Φ-ortonormali in cui le matrici associatesaranno diagonali ’o quasi’.

Lemma 2.10. fC è ΦC-normale ⇒ ∃ B base di autovettori, ortonormale

Dimostrazione. è evidente per il teorema spettrale hermitiano (2.8)

I polinomi caratteristici di f e fC sono identici. Quindi si a che

Spettro(fC) = Spettro(f) ∪ {λ1, . . . , λk, λ1, . . . , λk}

con Spettro(f) = {µ1, . . . , µ} con µi = µi ∀ i. Dunque per il lemma 6 si scompone VC nellaseguente somma diretta ortogonale

VC =⊥⊕i

Vµi(fC)⊥⊕j

(Vλj (fC)⊥⊕ Vλj (fC)) (2.12)

Lemma 2.11. Sia µ ∈ R autovalore per fC allora

Vµ(fC) = Vµ(f)C

Dimostrazione. Sia v + iw ∈ VC allora

fC(v + iw) = µ(v + iw) = µv + iµw = f(v) + if(w)

si ha che f(v) = µv e f(w) = µw quindi v + iw ∈ Vµ(f)C

Lemma 2.12. Sia λ ∈ C autovalore per fC allora

Vλ(fC) = Vλ(fC)

Dimostrazione. Dimostreremo l’uguaglianza di questi due spazi tramite una catena di equiva-lenze

v + iw ∈ Vλ(fC) ⇔ fC(v + iw) = λ(v + iw) = λ(v − iw) = fC(v − iw)

Dunque se applico ancora una volta il coniugio a fC(v − iw) ottengo

fC(v − iw) = λ(v − iw) ⇔ fC(v − iw) = λ(v − iw)

Ovvero (v + iw) = v − iw ∈ Vλ(fC)

Corollario. Se D = {z1, . . . , zn} base per Vλ(fC), allora D = {z1, . . . , zn} è base per Vλ(fC)

Per i lemmi 5 e 7 posso costruisco una base reale, ortonormale, per ogni autospazio Vµ realtivoad un’autovalore reale µ di fC.Invece per gli autospazi, Vλ(fC) e Vbarλ(fC), relativi ad autovalori complessi (λ 6= λ) considero lebasi ortonormali D e D . Ricombinando gli elementi di queste due basi e utilizzando le relazioneRe(z) = (z + z)/2 e Im(z) = (z − z)/2i costruisco la seguente base reale per Vλ(fC)⊕ Vλ(fC)

{12

(z1 + z1), . . . ,12

(zn + zn),12i

(z1 − z1), . . . ,12i

(zn − zn)} (2.13)

Page 23: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 2.4 | Un ritorno al caso reale 21

Ripetendo questo operazione per ogni autospazio, dato che vale (2.12) otteniamo

ζR = {basi reali di Vµ(fC)} ∪ {basi reali costruite da D e D} (2.14)

base reale di VC e ortonormale a ΦSe ora consideriamo l’applicazione f : V −→ V , dove V è uno spazio vettoriale su R, e il prodottoscalare su V Φ allora complessificando f possiamo ricavarci ζR base Φ-ortonormale di V tale chela matrice associata ad f è della forma

mζRζR

(f) =

µ1

. . . 0µs

A1

0 . . .Ak

(2.15)

con Ai matrici 2× 2 della forma

Proposizione 2.3.

Ai = |λi|(

cos(θi) − sin(θi)sin(θi) cos(θi)

)con λi = |λi| (cos(θi) + i sin(θi)) (2.16)

Dimostrazione. Sia v, w ∈ ζR tali che v + iw ∈ Vλi(fC) si ha quindi

fC(v + iw) = λi(v + iw) = f(v) + if(w)

l’immagine di questi due vettori di base è

f(v) = |λi| (v cos(θi)− w sin(θi))f(w) = |λi| (v sin(θi) + w cos(θi))

e la matrice associata a f ristretta allo Span(v, w) è come in (2.16)

Osservazione 2.9. La matrice (2.16) rappresenta una rotazione composta ad una dilatazione.

Osservazione 2.10.

• Se f autoaggiunta allora la matrice associata a f è diagonale

• Se f è anti-autoaggiunta allora si ha:

|λ1|

(0 −11 0

). . .

|λ1|(

0 −11 0

)

• Se f ∈ O(Φ) allora si ha:

Iq

−IpRθ1

. . .Rθn

con Rθi rotazione di θi

Page 24: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Capitolo 3

Caratterizzazione del gruppoortogonale

Sia (V,Φ) su R con Φ prodotto scalare non degenere.Sia O(Φ) = {f ∈ GL(V ) |Φ(v, w) = Φ(f(v), f(w)) ∀ v, w ∈ V } il gruppo ortogonale per Φ.Per quanto visto in precedenza possiamo decomporre lo spazio vettoriale V nella seguente sommadiretta

V = V1(f)⊥⊕ V−1(f)

⊥⊕ Pθ1

⊥⊕ . . .

⊥⊕ Pθs (3.1)

dove Pθi sono i sottospazi di dimensione 2 su cui f agisce come rotazione Rθi .

Definizione 3.1. Sia P un sottospazio vettoriale di dimensione 2.L’applicazione RP,θ : V → V tale che su P agisce come Rθ e su P⊥ come identità è unarotazione sul piano P di angolo θ.

Definizione 3.2. Sia v ∈ V un vettore non isotropo; l’applicazione ρv : V → V tale che

∀w ∈ Span(v) ρv(w) = −w∀w ∈ Span(v)⊥ ρv(w) = w

(3.2)

è detta riflessione parallela al vettore non isotropo v

Osservazione 3.1. Notare che ρv e RP,θ ∈ O(Φ).

Osservazione 3.2. Sia B = {v, . . . , . . . , wn} una base ortogonale di (V,Φ), con w1, . . . , wn vettoridella base di Span(v)⊥. La matrice associata a ρv nella base B è

(−1 00 In

)quindi det ρv = −1

e ρv ◦ ρv = id.

Vogliamo trovare dei generatori semplici di O(Φ), utilizzando la somma diretta ortogonale (3.1)possiamo scrivere che una generica f ∈ O(Φ) è composizione di

f = (id)p ◦ ρv1 ◦ · · · ◦ ρvs ◦RP1,θ1 ◦ · · · ◦RP2

Dato che una rotazione può essere scritta come composizione di due riflessioni ogni elemento diO(Φ) può essere scritto come composizione di al più n = dimV riflessioni.Esprimiamo ora questo risultato sotto forma di teorema, in questo però sarà indebolita lacondizione sul numero massimo di riflessioni (si avrà solo una stima m(n) con n = dimV ).

Teorema 3.1 (caratterizzazione del gruppo ortogonale). Ogni f ∈ O(Φ) è composizionedi riflessioni, ovvero esistono ρv1 , . . . , ρvk tali che f = ρv1 ◦ · · · ◦ ρvk ed inoltre ∃m(n) ∈ Ntale che ∀ f ∈ O(Φ) si può ottenere k 6 m(n).

22

Page 25: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 3.0 23

Dimostrazione. Faremo una dimostrazione per induzione su n = dim(V ) che darà la stima in-duttiva m(1) = 1 e m(n) = n+ 1 +m(n− 1)

Passo base: V = Span(v), Φ(v, v) 6= 0. Se f ∈ O(Φ) e f(v) = λv allora

λ2Φ(v, v) = Φ(f(v), f(v)) = Φ(v, v) ⇒ λ = ±1

Se λ = 1 allora f = id, se λ = −1 allora f = ρv, inoltre m(1) = 1.

Passo induttivo: verifichiamo che n− 1⇒ n. Sia dimV = n, f ∈ O(Φ) e fissiamo v ∈ Vnon isotropo. Distinguiamo i casi

1. f(v) = λv

2. w = f(v)− v e w non è isotropo, e si ha che

ρw ◦ f(v) = v dove w = f(v)− v (3.3)

Considerando f(v) = 1/2(f(v) − v) + 1/2(f(v) + v) = 1/2w + 1/2z basta verificareche Φ(w, z) = 0 per dimostrare (3.3) perché in tal caso

ρw(f(v)) = −1/2(f(v)− v) + 1/2(f(v) + v) = v

Φ(w, z) = Φ(f(v)− v, f(v) + v) = Φ(f(v), f(v))− Φ(v, v) = 0

3. w = f(v)− v e w è isotropo, e si ha che

ρw ◦ ρv1 ◦ · · · ◦ ρvn ◦ f(v) = v dove w = −f(v)− v (3.4)

Dapprima dobbiamo verificare che −f(v)− v non è isotropo, infatti se per assurdo lofosse si avrebbe

0 = Φ(−f(v)− v,−f(v)− v) + Φ(f(v)− v, f(v)− v) = 4Φ(v, v) 6= 0

Applicando la relazione (3.3) otteniamo che

ρw ◦ (−f)(v) = ρw ◦ −id ◦ f(v) = v

Notare che se B = {v1, . . . , vn} è una base di V e f = −id allora l’unico punto fissodi f è l’origine e

−id = ρv1 ◦ · · · ◦ ρvnDa qui si ricava la relazione (3.4).

Lemma 3.1. Consideriamo ρ ∈ O(Φ), v ∈ V non isotropo e ρ(v) = v, allora

ρ = ρ1 ◦ · · · ◦ ρh con h 6 m(n− 1) (3.5)

Dimostrazione. Abbiamo che V = Span(v) ⊕W con W = Span(v)⊥, dimW = n − 1 eΦ|W non degenere. Inoltre

∀w ∈W Φ(v, ρ(w)) = Φ(ρ(v), ρ(w)) = Φ(v, w) = 0

dunque ρ è W -invariante: posso dunque applicare l’ipotesi induttiva

∃ ρ1, . . . , ρh riflessioni di W tali che ρ|W = ρ1 ◦ · · · ◦ ρh con h 6 m(n− 1)

Sia V = W ⊕W⊥, Φ|w non degenere e ρv ∈ O(Φ|W ) una riflessione di W parallela av ∈W non isotropo. Allora ρv = ρv|W dove ρv ∈ O(Φ) è la riflessione parallela a v.Quindi avremo che ρi = ρi|W ∀ i = 1, . . . , h e quindi si ottiene la (3.5)

Applicando la (3.5) possiamo concludere la dimostrazione della caratterizzazione di O(Φ)

Page 26: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

24 Caratterizzazione del gruppo ortogonale | cap. 3

• ρ = f −→ f = ρ1 ◦ · · · ◦ ρh con k = h 6 m(n− 1)

• ρ = ρw ◦ f −→ f = ρw ◦ ρ1 ◦ · · · ◦ ρh con k 6 1 +m(n− 1)

• ρ = ρw◦ρv1◦· · ·◦ρvn◦f −→ f = ρw◦ρv1◦· · ·◦ρvn◦ρ1◦· · ·◦ρh con k 6 1+n+m(n−1)

Corollario. se V è su R e Φ è definito positivo (o negativo) allora il caso 3. non capita mai ela dimostrazione produce m(n) = n

Dimostrazione.n 6 m(n) 6 1 +m(n− 1)

Per induzionem(1) = 1 e m(n− 1) = n− 1 ⇒ m(n) = n

Page 27: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Capitolo 4

La teoria di Witt

La teoria di Witt è un insieme di teoremi riguardanti i prodotti scalari non degeneri. I teoremidi Witt che ora illustreremo permetteranno di arrivare a scrivere le matrici dei prodotti scalarinel modo più univoco possibile, oltre a consegnarci diversi strumenti utili per la gestione delleisometrie.

4.1 Piani iperboliciSia (V, ϕ) un K-spazio vettoriale su cui è definito il prodotto scalare ϕ.

Definizione 4.1. Sia P un sottospazio di V tale che

• dimP = 2

• dim Rad(ϕ|P ) = 0 (ovvero ϕ|P non degenere)• ∃ v ∈ P, v 6= 0 tale che ϕ|P (v, v) = 0 (ovvero in P c’è un vettore isotropo non nullo)

In tal caso P si dice un piano iperbolico.

Osservazione 4.1. Se V è un C-spazio vettoriale, ogni sottospazio di dimensione 2 è un pianoiperbolico. Se V è un R-spazio vettoriale, un sottospazio P di dimensione 2 è un pianoiperbolico se e solo se σ(ϕ|P ) = (1, 1, 0).

I piani iperbolici si riveleranno molto comodi nella decomposizione di spazi. Questo deriva dauna loro particolare proprietà, ovvero

Lemma 4.1 (Forma canonica dei piani iperbolici). Sia P un sottospazio vettoriale di (V, ϕ)tale che dimP = 2. P è un piano iperbolico se e solo se esiste una base B = {v, w} di Ptale che

MB(ϕ|P ) =(

0 11 0

)Dimostrazione. La freccia ⇐ è quasi ovvia: infatti dimP = 2 per ipotesi, entrambi i vettori

della base sono isotropi e non nulli e per finire∣∣ 0 1

1 0

∣∣ = −1 6= 0 ⇒ ϕ|P è non degenere.Dimostriamo ora la freccia ⇒. Poiché P è per ipotesi un piano iperbolico, esisterà v′ unvettore di P isotropo non nullo. Sia w′ il completamento a base di v′ e sia B′ = {v′, w′}.In tale base avremo in generale

MB′(ϕ|P ) =(

0 aa b

)con a = ϕ(v′, w′) e b = ϕ(w′, w′)Consideriamo ora v = 1

av′, w = w′ − b

2av′, B = {v, w}. Dimostriamo per prima cosa che

25

Page 28: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

26 La teoria di Witt | cap. 4

B è una base di P , dimostrando che v e w sono linearmente indipendenti. Infatti se nonlo fossero esisterebbe α ∈ K tale che w′ − b

2av′ = w = αv = α

a v′ ⇒ w′ = b+2α

2a v′ ma questoè impossibile perché, essendo w′ il completamento a base di P di {v′}, in particolare v′ ew′ sono linearmente indipendenti.Osserviamo ora che

ϕ(v, w) =1aϕ(v′, w) =

1a

(ϕ(v′, w′)− b

2aϕ(v′, v′)

)=

1a

(a− 0

b

2a

)= 1

ϕ(w,w) = ϕ(w′, w′)− b

2aϕ(w′, v′)− b

2aϕ(v′, w′) +

b2

4a2ϕ(v′, v′) =

= ϕ(w′, w′)− b

aϕ(w′, v′) +

b2

4a2ϕ(v′, v′) = b− b

aa+

b2

4a20 = b− b = 0

E quindi

MB(ϕ|P ) =(

0 11 0

)

Definizione 4.2. Dato un piano iperbolico P , una base B tale che MB(ϕ|P ) =(

0 11 0

)si dice

base iperbolica

Corollario. Tutti i piani iperbolici sono isometrici rispetto alle rispettive restrizioni del prodottoscalare generale. Ciò è ovvio una volta scritte le matrici di tali restrizioni in una coppiadi basi iperboliche, e osservando che tali matrici sono necessariamente uguali.

Si noti che la matrice della restrizione di un prodotto scalare a un piano iperbolico può sempreessere scritta nella forma di cui sopra, a prescindere dal campo su cui V è costruito. Al contrario,le forme “standard” conosciute finora per un sottospazio del genere (ovvero

(1 00 1

)su C o

(1 00 −1

)su R) dipendevano dal campo, e in particolare dal fatto che su di esso è definita l’operazione“radice quadrata”. L’esistenza di una tale operazione non è però necessaria perché un campopossa essere definito tale: in un generico campo in cui le radici non sono definite dovremmoscrivere la matrice di tale restrizione come

(c1 00 c2

)con c1, c2 ∈ K due generici elementi del

campo (non necessariamente l’unità o il suo opposto). Solo grazie alle radici quadrate su R o Cho che ‖ vi ‖2= ci ⇒‖ vi√

ci‖2= 1 e quindi posso in modo indolore sostituire ogni vettore vi di

una base ortogonale con vi√ci

ottenendo ancora una base.Decomporre uno spazio in sottospazi ortogonali il maggior numero possibile dei quali sia unpiano iperbolico si potrebbe dunque rivelare in futuro vantaggioso: farlo ci consentirebbe dideterminare univocamente la maggior parte possibile della matrice del prodotto scalare, vistoche tutte le restrizioni a un piano iperbolico possono essere scritte nella forma indicata dal lemmaprecedente.

4.2 Il teorema di completamento non degenereIl teorema di completamento non degenere serve a costruire in modo canonico a partire da unsottospazio qualsiasi un altro sottospazio tale che la corrispondente restrizione di un prodottoscalare non degenere, definito sull’intero spazio di partenza, sia non degenere. Questo teoremaè la base di gran parte della teoria di Witt, visto che è necessario alla dimostrazione sia delteorema di estensione che del teorema di cancellazione, che andremo successivamente adimostrare1.Consideriamo il solito (V, ϕ), un K-spazio vettoriale di dimensione finita n su cui è definito ilprodotto scalare non degenere ϕ.

1In effetti, per quanto riguarda il Teorema di estensione il completamento non degenere è necessario solo perla seconda parte del teorema, cioè per ridursi al caso non degenere. Per questo motivo talvolta il prof. Benedettiprima dimostra il teorema di estensione nel caso non degenere, poi il teorema di completamento non degenere eper finire la seconda parte del teorema di estensione. Noi abbiamo preferito non spezzare in due la dimostrazionedi alcun teorema.

Page 29: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 4.3 | Il teorema di completamento non degenere 27

Teorema 4.1 (completamento non degenere). SiaW un sottospazio vettoriale con dimW =k, dim Rad(ϕ|W ) = s. Allora esiste un sottospazio W tale che dim W = k + s, W ⊂ W ,dim Rad(ϕ|W ) = 0.

Dimostrazione. Per prima cosa troviamo una base ortogonale per ϕ|W . Tale base sarà dellaforma B = {u1, . . . , uk−s, z1 . . . , zs} dove dim Rad

(ϕ|Span(u1,...,uk−s)

)= 0 e

Span(z1, . . . , zs) = Rad(ϕ|W ).Sia U = Span(u1, . . . , uk−s); abbiamo che ϕ|U è non degenere e W = U⊥Rad(ϕ|W ). Unmodo naturale di costruire W sarebbe quello di scriverlo come

W = U⊥P1⊥ . . .⊥Ps (4.1)

dove P1, . . . , Ps sono s piani iperbolici a due a due ortogonali tali che ∀ i zi ∈ Pi. Uncompletamento del genere soddisfa tutte le richieste del teorema: infatti

• dim W = dimU + 2 dim Rad(ϕ|W ) = (k − s) + 2s = k + s

• posso scrivere una base di W come B ={

base di Uu1, . . . , uk−s,

base di P1z1, t1 , . . . ,

base di Pszs, ts

}⊃

B ⇒W ⊂ W• ϕ|W è non degenere perché ϕ|U è non degenere per costruzione e ϕ|Pi è non degenere∀ i per definizione di piano iperbolico.

Resta da dimostrare che un completamento del tipo (4.1) è effettivamente possibile. Effet-tueremo tale dimostrazione per induzione su dim Rad(ϕ|W ).Passo base: poniamo dim Rad(ϕ|W ) = 1. Sia B una base ortogonale per ϕ|W ; B sarànella forma B = {u1, . . . , uk−1, z} con z ∈ Rad(ϕ|W ) (e quindi Rad(ϕ|W ) = Span(z)). SiaD = {u1, . . . , uk−1, z, vk+1, . . . , vn} il completamento di B a base di V e siaD∗ = {u∗1, . . . , u∗k−1, z

∗, v∗k+1, . . . , v∗n} la corrispondente base duale. Sia inoltre t = F−1

ϕ (z∗)il vettore che rappresenta z∗ via ϕ (essendo per ipotesi ϕ non degenere, l’esistenza di talevettore è assicurata dal teorema di rappresentazione). Si noti che t /∈ W : infatti, set fosse contenuto in W avremmo che ϕ(z, t) = 0 ma per costruzione ϕ(z, t) = z∗(z) = 1.In particolare t /∈ Span(z) ⊂ W , cioè z e t sono linearmente indipendenti. Consideriamoquindi P = Span(z, t). Abbiamo banalmente che dimP = 2 e sappiamo dell’esistenza diun vettore isotropo non nullo in P (cioè z). Possiamo anche facilmente dimostrare cheRad(ϕ|P ) = {0}: infatti poniamo w = αz + βt ∈ Rad(ϕ|P ). Avremmo

0 = ϕ(w, z) = αϕ(z, z) + βϕ(t, z) = β

0 = ϕ(w, t) = αϕ(z, t) + βϕ(t, t) = α

e quindi w = 0, cioè P è un piano iperbolico. Inoltre P⊥U perché ∀ i ϕ(ui, t) = z∗(ui) = 0(e ϕ(ui, z) = 0 per ipotesi). Posso quindi considerare W = U⊥P il completamento cercato.Passo induttivo: Supponiamo che per ogni sottospazio W tale che dim Rad(ϕ|W ) = s−1esista un completamento del tipo (4.1). Supponiamo inoltre che dim Rad(ϕ|W ) = s.In tal caso sia B = {u1, . . . , uk−s, z1, . . . , zs} (dove dim Rad

(ϕ|Span(u1,...,uk−s)

)= 0 e

Span(z1, . . . , zs) = Rad(ϕ|W )) una base di W ortogonale per ϕ|W . ConsideriamoB

def= {u1, . . . , uk−s, z1, . . . , zs−1} e W def

= Span(B). Abbiamo che W = W⊥ Span(zs);inoltre banalmente dim Rad(ϕ|W ) = s−1 e quindi, per ipotesi induttiva, è possibile costrui-re un completamento di W del tipo (4.1) ovvero ˆW = Span(u1, . . . , uk−s)⊥P1⊥ . . .⊥Ps−1.Inoltre Span(zs) è un sottospazio con dim Rad

(ϕ|Span(zs)

)= 1 e può quindi essere comple-

tato nel modo illustrato nel passo base (nel caso particolare U={0}) creando così comecompletamento un unico piano iperbolico Ps. Posso quindi definire

Wdef= ˆW⊥Ps = Span(u1, . . . , uk−s)⊥P1⊥ . . .⊥Ps−1⊥Ps

che è proprio il completamento cercato.

Page 30: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

28 La teoria di Witt | cap. 4

4.3 Il teorema di estensioneSia (V, ϕ) uno spazio vettoriale di dimensione n su cui è definito il prodotto scalare non degenereϕ. Sia O(ϕ) il sottospazio delle applicazioni ϕ-ortogonali.

Definizione 4.3. Siano W e W ′ due sottospazi di V . W e W ′ si dicono congruenti se ∃F ∈O(ϕ) tale che F (W ) = W ′. In tal caso F si dice una congruenza tra W e W ′.

Teorema 4.2 (estensione). Sia f : (W,ϕ|W )→ (W ′, ϕ|W ′) un’isometria tra due sottospazi diV . Allora esiste F ∈ O(ϕ) tale che f = F |W .

Dimostrazione. Consideriamo prima un caso semplificato, per poi dimostrare che tale dimostra-zione è sufficiente per tutti i casi, previa applicazione dell’appena dimostrato teorema dicompletamento non degenere.Caso non degenere: supponiamo che ϕ|W e ϕ|W ′ siano prodotti scalari non degeneri. Intal caso abbiamo V = W⊥W⊥ = W ′⊥W ′⊥. Avrò quindi che ∀ v ∈ V v = w+z con w ∈We z ∈W⊥. Se dimostrassi l’esistenza di un’isometria g traW⊥ eW ′⊥ potrei quindi definireF (v) = F (w + z)

def= f(w) + g(z). Si può facilmente dimostrare che questa è un’isometria

perché si ha che

ϕ(F (v), F (v′)) = ϕ(f(w) + g(z), f(w′) + g(z′)) =

= ϕ(f(w), f(w′)) + ϕ(g(z), g(z′)) + ϕ(f(w), g(z′)) + ϕ(g(z), f(w′)) =

= ϕ|W ′(f(w), f(w′)) + ϕ|W ′⊥(g(z), g(z′)) + 0 + 0 =

= ϕ|W (w,w′) + ϕ|W⊥(z, z′) + ϕ(w, z′) + ϕ(z, w′) = ϕ(w + z, w′ + z′) = ϕ(v, v′)

Questo perché f e g sono per costruzione isometrie rispettivamente traW eW ′ e traW⊥ eW ′⊥ e, sempre per costruzione, f(w)⊥g(z′), g(z)⊥f(w′), w⊥z′, z⊥w′. Inoltre banalmenteabbiamo F |W = f .Dimostrare che una tale isometria g esiste in un generico K-spazio vettoriale è piuttostolaborioso e tale dimostrazione non è quindi qui riportata2. Nel caso in cui V sia uno spaziovettoriale su C o R (ossia nella quasi totalità dei casi utili a noi fisici, tra le altre cose),ad ogni modo, possiamo scaricare il peso della dimostrazione sulla caratterizzazione deiprodotti scalari effettuata in precedenza, arrivando così alla conclusione in maniera piùsemplice.Caso non degenere su C: Sappiamo che la coppia di valori dimW , dim Rad(ϕ|W ) è un

invariante completo per la relazione di isometrismo tra C-spazi vettoriali; abbiamoche essendo ϕ non degenere

dim Rad(ϕ|W ) = dim Rad(ϕ|W ′) = 0⇒ dim Rad(ϕ|W⊥) dim Rad(ϕ|W ′⊥) = 0

Inoltre, sempre perché ϕ è non degenere dimW + dimW⊥ = dimW ′ + dimW ′⊥ = ne quindi

W,W ′isometrici⇒ dimW = dimW ′ ⇒ n− dimW⊥ = n− dimW ′⊥ ⇒

⇒ dimW⊥ = dimW ′⊥

e tanto basta per concludere che W⊥ e W ′⊥ sono isometrici.Caso non degenere su R: Sappiamo che la segnatura è un invariante completo per la

relazione di isometrismo tra R-spazi vettoriali e che σ(ϕ) = σ(ϕ|W ) + σ(ϕ|W⊥)3 equindi abbiamo

W,W ′isometrici⇒ σ(ϕ|W ) = σ(ϕ|W ′)⇒ σ(ϕ)− σ(ϕ|W⊥) = σ(ϕ)− σ(ϕ|W ′⊥)⇒

⇒ σ(ϕ|W⊥) = σ(ϕ|W ′⊥)

e tanto basta per concludere che W⊥ e W ′⊥ sono isometrici.2Il prof. Benedetti nell’anno in cui noi abbiamo frequentato Geometria II ha deciso, per motivi di tempo, di

non effettuare tale dimostrazione nel caso di un campo qualsiasi. Se negli anni prossimi il prof. effettuerà ladimostrazione (o una qualunque delle altre dimostrazioni qui non contenute) questi appunti saranno integrati diconseguenza

3Ovviamente la somma di due segnature si fa sommando indice per indice.

Page 31: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 4.4 | Il teorema di cancellazione 29

Riduzione al caso non degenere: se avessimo due sottospazi W e W ′ tali che che le ri-spettive restrizioni del prodotto scalare non siano necessariamente non degeneri, potremmousare il teorema di completamento non degenere per costruire i rispettivi comple-tamenti W e W ′. Poiché le restrizioni del prodotto scalare a questi sottospazi sono percostruzione non degeneri, posso applicare il ragionamento viluppato per il punto preceden-te4 e costruire un’isometria g tra i sottospazi W⊥ e W ′⊥. è inoltre possibile estendere fa-cilmente l’isometria f : (W,ϕ|W ) → (W ′, ϕ|W ′) a un’isometria f : (W , ϕ|W ) → (W ′, ϕ|W ′)con f |W = f . Infatti io avrò che una base di W , B = {u1, . . . , uk−s, z1, . . . , zs} verràestesa a B = {u1, . . . , uk−s, z1, t1, . . . , zs, ts} (dove {zi, ti} è sempre una base iperbolica).Consideriamo D = {f(u1), . . . , f(uk−s), f(z1), . . . , f(zs)}; visto che f è un’isometria, D èuna base di W ′, e per di più una base ortogonale; inoltre {f(z1), . . . , f(zs)} è una base diRad(ϕ|W ′) (infatti ogni vettore w′ ∈W ′ sarà immagine via f di un certo vettore w ∈W , eavremo ϕ(w′, f(zi)) = ϕ(f(w), f(zi)) = ϕ(w, zi) = 0). Il modo in cui D viene completataa base di W ′ è dunque D = {f(u1), . . . , f(uk−s), f(z1), t′1, . . . , f(zs), t′s} (dove {f(zi), t′i} èsempre una base iperbolica). Posso quindi imporre che ∀ i f(ti) = t′i e verificare che questa èun’isometria: infatti ∀ i per costruzione ϕ(t′i, f(zi)) = ϕ(ti, zi) = 1, ϕ(t′i, t

′i) = ϕ(ti, ti) = 0

e inoltre ti è ortogonale a tutti i vettori di B non menzionati e t′i a tutti i vettori di D nonmenzionati.Poiché V = W⊥W⊥ dato un vettore v ∈ V esso potrà essere scritto come v = w + r conw ∈ W , r ∈ W⊥. Definisco F (v) = F (w+ r)

def= f(w)+ g(r). F è banalmente un’isometria,

come si può verificare in maniera del tutto analoga a quella del caso precedente, e tantobasta per dimostrare il teorema.

Corollario. Esiste F ∈ O(ϕ) tale che f def= F |W è un’isometria tra (W,ϕ|W ) e (W ′, ϕ|W ′) se

e solo se W e W ′ sono congruenti. Infatti è banalmente necessario che tale isometriaesista affinchè i due sottospazi siano congruenti: se F è un’isometria tale che F (W ) = W ′

è banalmente vero che F |W è un’isometria tra (W,ϕ|W ) e (W ′, ϕ|W ′) e tanto basta perconsiderare verificato il teorema nel senso ⇐. Il senso contrario deriva direttamente dalteorema di estensione: infatti per tale teorema possiamo concludere che esiste F ∈ O(ϕ)tale che f = F |W . Questo implica che F (W ) = W ′ e quindi che W e W ′ sono congruenti.

In effetti questo corollario è probabilmente la conseguenza più importante del teorema di esten-sione. Più tardi sarà quello che useremo parlando di indice di Witt.

4.4 Il teorema di cancellazione

Il teorema di cancellazione è l’ultimo teorema necessario allo studio dell’indice di Witt e delladecomposizione di Witt di spazi vettoriali.Sia (V, ϕ) unK-spazio vettoriale di dimensione n su cui è definito il prodotto scalare non degenereϕ.

Lemma 4.2. Sia W un sottospazio vettoriale di V e sia W il suo completamento non degenere.Allora W⊥ = W⊥⊥Rad(ϕ|W ).

Dimostrazione. È ovvio che W⊥ ⊇ W⊥⊥Rad(ϕ|W ) (infatti da una parte i vettori del radicaleristretto sono ortogonali a tutti i vettori di W per costruzione e quindi Rad(ϕ|W ) ⊆ W⊥;dall’altra W ⊆ W ⇒ W⊥ ⊆W⊥). Inoltre abbiamo

dimW⊥ = dimV − dimW = dimV − (dim W − dim Rad(ϕ|W )) =

= (dimV − dim W ) + dim Rad(ϕ|W ) = dim W⊥ + dim Rad(ϕ|W ) =

= dim(W⊥⊥Rad(ϕ|W ))

4Per il momento questo si applica solo agli spazi vettoriali su C e R, ma come già detto è possibile effettuarela dimostrazione per un campo qualsiasi.

Page 32: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

30 La teoria di Witt | cap. 4

ma noi sappiamo che dati due sottospazi della stessa dimensione uno dei quali sia contenutonell’altro, essi sono in effetti uguali, e tanto basta per sancire che

W⊥ = W⊥⊥Rad(ϕ|W )

Teorema 4.3 (cancellazione). Siano (W,ϕ|W ),(W ′, ϕ|W ′) due sottospazi vettoriali isome-trici di V . Allora (W⊥, ϕ|W⊥) e (W ′⊥, ϕ|W ′⊥) sono isometrici.

Dimostrazione. Anche in questo caso osserveremo prima il caso non degenere, e poi ci ricondur-remo ad esso tramite l’applicazione del teorema di completamento non degenere.Caso non degenere: se ϕ|W è non degenere, il teorema è un’applicazione quasi banaledel teorema di estensione: infatti in tal caso, essendo W e W ′ isomorfi, anche ϕ|W ′ è nondegenere. In tal caso abbiamo V = W⊥W⊥ = W ′⊥W ′⊥ e per il teorema di estensionese f è un isometria (una tale isometria esiste per ipotesi) da (W,ϕ|W ) a (W ′, ϕ|W ′) alloraesiste una congruenza globale F che estende f . F |W⊥ è un’isometria (perché restrizionedi un’isometria) che manda (W⊥, ϕ|W⊥) in (W ′⊥, ϕ|W ′⊥), e tanto basta per dimostrare ilteorema.Riduzione al caso non degenere: cerchiamo ora di dimostrare il tutto nel caso generale.Per prima cosa applichiamo a W e W ′ il teorema di completamento non degenere esten-dendoli ai loro completamenti W e W ′ (rispettivamente). Per il lemma (4.2) sappiamoche W⊥ = W⊥⊥Rad(ϕ|W ) e W ′⊥ = W ′⊥⊥Rad(ϕ|W ′). Essendo ϕ|W e ϕ|W ′ non dege-neri per costruzione ed essendo che W ,W ′ isometrici ⇒ W ,W ′ isometrici (visto che, comeabbiamo già visto nella seconda parte della dimostrazione del teorema di estensione, dataun’isometria f : W →W ′ la si può facilmente estendere a un’isometria f : W → W ′) allora,come già osservato precedentemente nel caso non degenere, W⊥ e W ′⊥ sono isometrici.Inoltre è banalmente vero che, essendo W e W ′ isometrici, Rad(ϕ|W ) e Rad(ϕ|W ′) sonoa loro volta isometrici (in effetti, ogni isometria che manda W in W ′ manda Rad(ϕ|W )in Rad(ϕ|W ′)). Ma allora anche W⊥ = W⊥⊥Rad(ϕ|W ) e W ′⊥ = W ′⊥⊥Rad(ϕ|W ′) sonoisometrici, in quanto somma ortogonale di spazi a due a due isometrici, e tanto basta perdimosstrare il teorema.

4.5 Indice di Witt e decomposizione di Witt

Sia (V, ϕ) unK-spazio vettoriale di dimensione n su cui è definito il prodotto scalare non degenereϕ.

Definizione 4.4. Sia Wϕ il più grande sottospazio di V tale che ϕ|W è un prodotto scalareuniformemente nullo. Si definisce indice di Witt del prodotto scalare ϕ il numero

w(ϕ) = dimWϕ

Non si faccia confusione tra dimensione del radicale (ovvero indice di nullità) e indice di Witt.Ricordiamo anzi che la teoria di Witt si occupa solo di prodotti scalari non degeneri e che ineffetti avere un indice di Witt non nullo non è raro per un prodotto scalare. infatti

Osservazione 4.2. w(ϕ) 6= 0⇔ ∃ v ∈ V isotropo (ovvero tale che ϕ(v, v) = 0).Infatti ϕ(v, v) = 0 se e solo se ϕ|Span(v) è un prodotto scalare uniformemente nullo.

Definizione 4.5. Se w(ϕ) = 0 allora (V, ϕ) si dice un campo anisotropo

Osservazione 4.3. Se V è un R-spazio vettoriale, (V, ϕ) è un campo anisotropo se e solo se ϕ èdefinito.Se V è un C-spazio vettoriale, (V, ϕ) è un campo anisotropo se e solo se dimV = 1

Page 33: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 4.5 | Indice di Witt e decomposizione di Witt 31

Ora, prendiamo in considerazione il sottospazio Wϕ, ovvero il più grande sottospazio la cuicorrispondente restrizione del prodotto scalare è uniformemente nulla. Per costruzione dimWϕ =

dim Rad(ϕ|Wϕ) = w(ϕ)

def= m. Essendo ϕ non degenere, posso applicare a Wϕ il teorema di

completamento non degenere che creerà il sottospazio

Wϕ = P1⊥ . . .⊥Pm

Considerando U = W⊥ϕ avròV = U⊥P1⊥ . . .⊥Pm

Lemma 4.3. Dato U = W⊥ϕ , (U,ϕ|U ) è un campo anisotropo.

Dimostrazione. (per assurdo) Poniamo che U non sia anisotropo, cioè che ∃u ∈ U tale cheu 6= 0, ϕ(u, u) = 0. Sia B = {v1, . . . , vm} una base ortogonale (in effetti per un prodottoscalare nullo, ogni base è ortogonale) di Wϕ e sia Z = Span({u} ∪ B). Poichè u è peripotesi isotropo e per costruzione ortogonale a tutti i vettori di B, ϕ|Z è un prodottoscalare uniformemente nullo; tuttavia dimZ = m+ 1 e questo è assurdo perchè per ipotesiWϕ è il più grande sottospazio tale che ϕ|Wϕ

è uniformemente nullo e dimWϕ = m.

Definizione 4.6. Si dice decomposizione di Witt di V rispetto a ϕ una decomposizione di Vin sottospazi ortogonali della forma

V = U⊥P1⊥ . . .⊥Ps

dove (U,ϕ|U ) è un campo anisotropo e P1, . . . , Ps sono piani iperbolici.

Per le precedenti considerazioni, possiamo concludere che, dati uno spazio vettoriale e un prodottoscalare non degenere definito su di esso, è sempre possibile costruire una decomposizione di Wittcon s = w(ϕ).

Definizione 4.7. Data una decomposizione di Witt

V = U⊥P1⊥ . . .⊥Ps

U si dice nucleo anisotropo della decomposizione

Teorema 4.4 (unicità delle decomposizioni di Witt). Siano

V = U⊥P1⊥ . . .⊥Ps = U ′⊥P ′1⊥ . . .⊥P ′s′

due diverse decomposizioni di Witt di V. Allora s = s′ e le due decomposizioni sono com-poste da sottospazi a due a due congruenti (ovvero esiste F ∈ O(ϕ) tale che F (U) = U ′,F (Pi) = P ′i ∀ i = 1 . . . s).

Dimostrazione. (per assurdo) Poniamo che s > s′. Siano Z = P1⊥ . . .⊥Ps′ ,Z ′ = P ′1⊥ . . .⊥P ′s′ . Questi sono due sottospazi ognuno dei quali è decomposto in s′ pia-ni iperbolici ortogonali. Poiché tutti i piani iperbolici sono tra di loro isometrici (è uncorollario del lemma sulla forma canonica dei piani iperbolici). Applicando i teoremi diestensione e cancellazione otteniamo che anche Z⊥ = U⊥Ps′+1⊥ . . .⊥Ps e Z ′⊥ = U ′ sonoisomorfi. Tuttavia, poiché Ps è un piano iperbolico, contiene un vettore isotropo non nullo,e un isometria manderebbe tale vettore in un altro vettore isotropo non nullo in Z ′⊥ = U ′,e questo è assurdo perché per ipotesi U ′ è per ipotesi un campo anisotropo.Inoltre tutti i piani iperbolici sono a due a due isometrici, quindi P = P1⊥ . . .⊥Ps eP ′ = P ′1⊥ . . .⊥P ′s sono isometrici; sia g ∈ O(ϕ|P ) l’isometria che manda P in P ′. Allostesso modo P⊥ = U e P ′⊥ = U ′ sono isometrici; sia h ∈ O(ϕ|U ) l’isometria che mandaU in U ′. Siano inoltre πP e πU le proiezioni di V su P e su U rispettivamente. Possodefinire f = g ◦ πP + h ◦ πU e questa è banalmente un’isometria (la verifica è analoga aquella effettuata nella dimostrazione del teorema di estensione).

Page 34: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

32 La teoria di Witt | cap. 4

Corollario. Il numero di piani iperbolici presenti in una decomposizione di Witt di (V, ϕ) èsempre pari a w(ϕ). Infatti tutte le decomposizioni presentano lo stesso numero di pianiiperbolici, e abbiamo già visto che ne esiste una in cui tale numero vale proprio w(ϕ).

Si noti che se V è un C-spazio vettoriale, la dimensione del nucleo anisotropo è univocamentedeterminata dalla dimensione di V : dimP = 0 se dimV è pari, dimP = 1 se dimV è dispari.Questo significa che una decomposizione di Witt di uno spazio V con dimV = 2k rispetto alprodotto scalare non degenere ϕ sarà sempre tale che se scelgo una base iperbolica per ogni pianoin cui V è decomposto e le unisco tutte in una base B di V avrò

MB(ϕ|P ) =

0 11 0

0 11 0

. . .0 11 0

(dove sono presenti k blocchi del tipo

(0 11 0

)e tutti gli spazi vuoti sono supposti riempiti di 0).

Se invece abbiamo dimV = 2k + 1, una decmposizione di V rispetto al prodotto scalare nondegenere ϕ sarà sempre tale che se scelgo una base iperbolica per ogni piano in cui V è decompostoe le unisco tutte in una base B di V insieme a un vettore a norma 1 che faccia da base per ilnucleo anisotropo, avrò

MB(ϕ|P ) =

10 11 0

0 11 0

. . .0 11 0

(anche qui sono presenti k blocchi del tipo

(0 11 0

)e tutti gli spazi vuoti sono supposti riempiti di

0).Come corollario, la dimensione è un invariante completo per la relazione di isometria tra C-spazivettoriali su cui sono definiti prodotti scalari non degeneri, come avevamo già dimostrato (infattiabbiamo appena visto che la dimensione determina univocamente una delle forme della matriceassociata, e se in almeno una coppia di basi la matrice associata al prodotto scalare è ugualei due spazi sono isometrici). Su R, l’invariante completo è formato da due numeri e un segno,ovvero (w(ϕ),dimU, σ) dove σ è + se ϕ|U è definito positivo (oppure se dimU = 0) e - se ϕ|U èdefinito negativo. Questo nuovo invariante è del tutto equivalente a quello “vecchio” trovato inpassato, ovvero la segnatura, e infatti possiamo ricavarne uno a partire dall’altro. Abbiamo w(ϕ) = min(i+, i−)

dimU = |i+ − i−|i+ > i− ⇒ σ = (+) ; i− > i+ ⇒ σ = (−)

Come corollario, due R-spazi vettoriali sono isometrici se e solo se

• sono isomorfi

• hanno lo stesso indice di Witt o la stessa dimensione del nucleo anisotropo (dato che sonoisomorfi, l’uguaglianza di uno di questi due implica l’uguaglianza dell’altro)

• il segno con cui le restrizioni dei prodotti scalari ai rispettivi nuclei anisotropi sono definiteè lo stesso

Page 35: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Capitolo 5

Forme canoniche di Jordan

La teoria di Jordan che enunceremo qui di seguito ci fornirà un invariante completo per larelazione di coniugio1 tra endomorfismi triangolabili. Ricordiamo che se lo spazio di riferimentoè costrito su un campo algebricamente completo (come C) ogni endomorfismo è triangolabile, equindi per tali spazi la trattazione della relazione di coniugio può considerarsi conclusa.Vedremo anche come adattare questa teoria al caso di endomorfismi (anche non triangolabili)costruiti sull’altro campo di nostro interesse, R, un adattamento reso possibile dal fatto che R èun sottocampo di C.Ad ogni modo, prima di dedicarci direttamente alla scomposizione vera e propria, è necessariaun po’ di preparazione.

5.1 Il teorema di decomposizione primariaIl teorema di decomposizione primaria è molto utile alla teoria delle forme canoniche di Jordan,in quanto grazie ad esso sarà possibile muovere il primo (e probabilmente più importante) passoverso la riduzione al caso nilpotente2.Sia V un K-spazio vettoriale e sia f ∈ End(V ).

Teorema 5.1 (decomposizione primaria). Sia I(f)def= {p ∈ K[x] tali che p(f) = 0}

l’ideale di f . Sia p ∈ I(f) e siano p1, p2, . . . , pk dei polinomi a due a due coprimi (ovvero∀ i 6= j, MCD(pi, pj) = 1) tali che p1p2 . . . pk = p. Sia Wi

def= KerPj(f). Allora ogni Wj è

f -invariante e W1 ⊕W2 ⊕ . . .⊕Wk = V .

Dimostrazione. Dimostrare che i sottospazi sono f -invarianti è semplice: infatti sia v ∈Wi; percostruzione [pi(f)] (v) = 0. In tal caso è facile dimostrare che f(v) ∈ Wi, perché tutti gliendomorfismi creati calcolando polinomi nello stesso endomorfismo commutano, e f può es-sere considerato l’endomorfismo creato calcolando il polinomio q(x) = x nell’endomorfismof stesso. Avremo quindi

[pi(f)] (f(v)) = [pi(f) ◦ f ](v) = [f ◦ pi(f)](v) = f([pi(f)](v)) = f(0) = 0

e quindi f(v) ∈ Ker pi(f) = Wi.Per dimostrare che la somma deiWi dà l’intero spazio di partenza, utilizzeremo l’induzione

1Ricordiamo che due endomorfismi f e g si dicono coniugati se esiste un automorfismo h tale che g = h−1◦f ◦h;visto che le matrici quadrate n× n sono a loro volta endomorfismi di Kn, due matrici quadrate A, B possono aloro volta essere coniugate, se ne esiste una quadrata invertibile della stessa taglia M tale che B = M−1AM , ein tal caso tali matrici si dicono simili ; ricordiamo inoltre che due endomorfismi sono coniugati (o due matricisimili) se e solo se esistono due basi B e D tali cheMB

B(f) =MDD(g).

2Un endomorfismo f si dice nilpotente se Spettro f = {0}

33

Page 36: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

34 Forme canoniche di Jordan | cap. 5

sul numero di fattori coprimi.Passo base: poniamo che il polinomio dell’ideale p sia stato scomposto in 2 soli fattoricoprimi, p1 e p2. Essendo tali fattori, appunto, coprimi, MCD(p1, p2) = 1. Per l’identitàdi Bézout esisteranno due polinomi a, b tali che MCD(p1, p2) = 1 = a(x)p1(x)+ b(x)p2(x)ovvero, calcolando nell’endomorfismo f , id = a(f)p1(f) + b(f)p2(f). Ricordiamo cheV = W1 + W2 implica che ∀ v ∈ V ∃w1 ∈ W1, w2 ∈ W2 tali chev = w1 + w2 e calcoliamol’espressione precedente in un generico vettore di V , v, ottenendo

v = [a(f) ◦ p1(f) + b(f) ◦ p2(f)](v) = [a(f) ◦ p1(f)](v) + [b(f) ◦ p2(f)](v) (5.1)

Si noti infine che p ∈ I(f) ⇒ p(f) = 0 e quindi, utilizzando sempre la commutatività deipolinomi calcolati nello stesso endomorfismo,

p2(f)( [a(f) ◦ p1(f)](v) ) = a(f)( [p2(f) ◦ p1(f)](v) ) = a(f)( [p(f)](v) ) = a(f)(0) = 0

p1(f)( [b(f) ◦ p2(f)](v) ) = b(f)( [p1(f) ◦ p2(f)](v) ) = b(f)( [p(f)](v) ) = b(f)(0) = 0

e quindi w2def= [a(f)◦p1(f)](v) ∈ Ker p2(f) = W2, w1

def= [b(f)◦p2(f)](v) ∈ Ker p1(f) = W1

e, per la (5.1), v = w1 + w2, e tanto basta per dimostrare che W1 +W2 = V .Per dimostrare che la somma è diretta, ovvero che W1 ∩ W2 = {0}, consideriamo u ∈W1 ∩W2 ⇒ [p1(f)](u) = [p2(f)](u) = 0. Ma in tal caso per la (5.1) abbiamo

u = a(f)([p1(f)](u)) + b(f)([p2(f)](u)) = a(f)(0) + b(f)(0) = 0

e tanto basta per dimostrare che W1 ⊕W2 = V .Passo induttivo: Sia k > 2 il numero di fattori coprimi in cui il poliomio dell’ideale p èstato scomposto, e poniamo come ipotesi induttiva che la tesi valga per k − 1 fattori. SiaW = Ker(p1p2 . . . pk−1(f)). Si noti che r(x) = p1p2 . . . pk−1(x) ∈ I(f |W ) per costruzione(infatti per come è definito W , ∀w ∈ W [r(f)](v) = 0). Inoltre W è f -invariante (inquanto somma di sottospazi f -invarianti) e quindi possiamo considerare f |W come unendomorfismo di W e r come un polinomio del suo ideale scomposto in k − 1 fattori, eapplicare ad esso l’ipotesi induttiva ottenendo W = Ker(p1p2 . . . pk−1(f)) = W1 ⊕ . . . ⊕Wk−1. Per ipotesi p = p1 . . . pk−1pk = rpk ∈ I(f), e r e pk sono due fattori coprimi (r ècoprimo a pk in quanto prodotto di polinomi ognuno coprimo a pk) in cui p è scomposto.Posso trattare questi due fattori come visto nel passo base, ottenendo V = Wk⊕Ker r(f) =Wk ⊕W . Ma come visto prima,W = W1 ⊕ . . .⊕Wk−1 e quindi

V = W1 ⊕ . . .⊕Wk−1 ⊕Wk

che è proprio la tesi cercata.

5.2 Specializzazione al caso triangolabile e riduzione allanilpotenza

Ora, poniamo che l’endomorfismo f preso in considerazione sia in particolare triangolabile, econsideriamo il suo polinomio minimo. Tale polinomio è uno dei polinomi dell’ideale, ed è inparticolare completamente fattorizzabile (in quanto divisore del polinomio caratteristico, che ècompletamente fattorizzabile per la triangolabilità dell’endomorfismo). Inoltre tutte le sue radicisono autovalori. Nella sua forma completamente fattorizzata, il polinomio minimo sarà nellaforma

q(x) = (x− λ1)r1(x− λ2)r2 . . . (x− λk)rk

dove Spettro f = {λ1, . . . , λk}; ovviamente ogni fattore della forma (x − λi)ri è coprimo a tuttigli altri.Ora, se applico a tale polinomio l’appena dimostrato teorema di decomposizione primariautilizzando come fattori coprimi i k termini della forma (x − λi)ri ottengo in corrispondenza k

Page 37: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 5.3 | Basi cicliche e blocchi di Jordan 35

sottospazi f -invarianti W1, . . . ,Wk che sono in somma diretta a dare V . Il polinomio minimodi f |Wi

è sempre qi(x) = (x − λi)ri , ovvero Spettro f |Wi= {λi}. Questo ha un’importante

conseguenza: mentre ci muoviamo alla ricerca di una forma matriciale che sia un invariantecompleto per la relazione di coniugio tra endomorfismi triangolabili, possiamo sempre considerarela funzione come dotata di un unico autovalore. Infatti se anche la funzione ne ha diversi,possiamo decomporre lo spazio come già visto, osservare che f |Wi

è sempre un endomorfismodi Wi e successivamente ricostruire la matrice dell’endomorfismo originale blocco per blocco:scelte B1, . . . ,Bk delle basi rispettivamente di W1, . . . ,Wk, posta B = {B1, . . . ,Bk} e ∀ i Ai =MBi

Bi(f |Wi), abbiamo infatti

MBB(f) =

A1 0 0 . . . 00 A2 0 . . . 0

0 0. . .

......

.... . . 0

0 0 . . . 0 Ak

che è legata in modo evidentemente banale alle diverse Ai. Poniamoci dunque nel caso semplifi-cato in cui l’endomorfismo da noi scelto, f ha un solo autovalore. Possiamo in effetti andare oltree considerare la funzione nilpotente, ovvero dotata del solo autovalore 0. Infatti se io considerof, f ′ ∈ End(V ) tali cheSpettro f = Spettro f ′ = {λ} ho che f e f ′ sono coniugate se e solo sef − λ id e f ′ − λ id sono coniugate, e inoltre Spettro(f − λ id) = Spettro(f ′ − λ id) = {0}.Il che significa che se ho un endomorfismo dotato del solo autovalore λ posso sottrarre λ id atale funzione, esaminare l’endomorfismo nilpotente così ottenuto e infine limitarmi a riaggiungereλ id alla forma matriciale (invariante per endomorfismi triangolabili) ottenuta.

5.3 Basi cicliche e blocchi di JordanConsideriamo quindi un endomorfismo f triangolabile con le proprietà dette prima (tra cui avereun solo autovalore λ), in un (sotto)spazio V a dimensione n. Sia h = f−λ id. Avremo Ph(x) = xn

e qh(x) = xr, con 1 6 r 6 n. Si noti che se r = 1 l’endomorfismo è in particolare diagonalizzabile.Un caso altrettanto interessante però è quello in cui r = n.In tal caso, dato v tale che hr−1(v) 6= 0 (tale vettore esiste perchè se non esistesse avemmohr−1 = 0 e quindi xr−1 sarebbe un polinomio dell’ideale di h, ma questo è assurdo perché ilpolinomio minimo dell’ideale di h è xr, che ovviamente non è un divisore di xr−1) possiamoconsiderare l’insieme B = {hr−1(v), . . . , h2(v), h(v), v}; B è ovviamente composto di r vettorinon nulli, e in questo caso (essendo r = n) sono in numero giusto per costituire una base. Saràun caso? ovviamente no.

Lemma 5.1 (basi cicliche). Dato V uno spazio vettoriale con dimV = n, h ∈ End(V ) trian-golabile e nilpotente tale che Ph(x) = qh(x) = xn, data B = {hr−1(v), . . . , h2(v), h(v), v},B è una base di V .

Dimostrazione. Dimostreremo per prima cosa che i vettori sono linearmente indipendenti. Perfarlo, come al solito costruiremo una combinazione lineare nulla e dimostreremo che icoefficienti della combinazione sono tutti nulli. Siano a0, . . . , an−1 coefficienti tali che

a0v + a1h(v) + · · ·+ an−1hn−1(v) = 0 (5.2)

Applichiamo a entrambi i membri della (5.2) l’endomorfismo h e utilizziamo la linearità dih ottenendo

h(a0v + a1h(v) + . . .+ an−1hn−1(v)) = a0h(v) + a1h

2(v) + . . .+ an−1hn(v) = h(0)

Si noti intanto che il secondo membro è ancora nullo, perché ogni endomorfismo manda lo 0in 0. Inoltre anche l’ultimo termine del primo membro è nullo: infatti essendo qh(x) = xn

abbiamo ∀w ∈ V hn(w) = 0. Ovvero

a0h(v) + a1h2(v) + · · ·+ an−2h

n−1(v) + 0 = 0

Page 38: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

36 Forme canoniche di Jordan | cap. 5

Applichiamo di nuovo la h a entrambi i membri per ulteriori n − 2 volte. Ad ogni appli-cazione, l’ultimo termine del primo membro diventa nullo, finché ne rimane solo uno. Inpratica abbiamo

0 = hn−1(a0v+a1h(v)+ · · ·+an−1hn−1(v)) = hn−2(h(a0v+a1h(v)+ · · ·+an−1h

n−1(v))) =

= hn−2(a0h(v)+a1h2(v)+· · ·+an−1h

n(v)) = hn−2(a0h(v)+a1h2(v)+· · ·+an−2h

n−1(v)+0) =

= hn−3(a0h2(v)+a1h

3(v)+· · ·+an−2hn(v)) = hn−3(a0h

2(v)+a1h3(v)+. . .+an−3h

n−1(v)+0) =

= . . . = a0hn−1(v)

Poiché sappiamo che hn−1(v) è non nullo, questo significa che a0 = 0. La nostra combina-zione lineare si riduce quindi a

a1h(v) + · · ·+ an−1hn−1(v) = 0

Stavolta applichiamo n − 2 volte la h e con ragionamenti analoghi a quelli precedentiotteniamo

hn−2(a1h(v) + · · ·+ an−1hn−1(v)) = a1h

n−1(v) = 0

e quindi a1 = 0.Continuando ricorsivamente in questo modo possiamo dimostrare la nullità di tutti i coef-ficienti. I vettori possono quindi considerarsi linearmente indipendenti; essendo anche innumero esattamente pari alla dimensione dello spazio, tanto basta per dimostrare che B èuna base e ciò dimostra il lemma.

Definizione 5.1. Dato V uno spazio vettoriale t.c. dimV = n, h ∈ End(V ) triangolabile enilpotente t.c. Ph(x) = qh(x) = xn, data B = {hr−1(v), . . . , h2(v), h(v), v}, B si dice baseciclica di V relativamente ad h.

Osservazione 5.1. Dato V uno spazio vettoriale, g ∈ End(V ) tale che Spettro g = {λ}, h =g − λ id, B una base ciclica di V relativamente ad h, abbiamo che

MBB(h) =

0 1 0 0 . . . 00 0 1 0 . . . 0

0 0. . . . . .

......

.... . . 1 0

...... 0 1

0 0 . . . . . . 0 0

Questo deriva direttamente dal fatto che applicando h a un elemento della base si ottieneil precedente elemento (o 0 se la applichiamo al primo). Ovviamente questo significa che

MBB(g) =MB

B(h) + λI =

λ 1 0 0 . . . 00 λ 1 0 . . . 0

0 0. . . . . .

......

.... . . 1 0

...... λ 1

0 0 . . . . . . 0 λ

(5.3)

Definizione 5.2. Una matrice (o una sua parte) nella forma (5.3) e di grandezza m×m si diceblocco di Jordan di taglia m relativo all’autovalore λ, e si abbrevia come J(m,λ).

Per esempio, nell’esempio precedente, quello della matrice (5.3), abbiamo MBB(g) = J(n, λ)

(dove n è la dimensione di V ).

Page 39: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 5.4 | Forma canonica di Jordan 37

5.4 Forma canonica di JordanConsideriamo ancora unK-spazio vettoriale V di dimensione n e g ∈ End(V ) tale che Spettro g ={λ}, e sia h = g − λ id. Avremo quindi Ph(x) = xn e qh(x) = xr. Precedentemente abbiamoosservato il caso in cui r = n, ma è il momento di sollevare quest’ipotesi.Una funzione nilpotente è, per natura, non iniettiva. Questo significa che ha un nucleo didimensione non nulla, e ciò diventa tanto più vero per le sue potenze (h2, h3...): poiché peresempio h2 manda a 0 sia i vettori che vengono mandati a 0 dalla prima applicazione di h (chequindi sono contenuti nel suo nucleo) sia i vettori non appartenenti al nucleo la cui immagineappartiene al nucleo, ci si aspetta che il suo nucleo contenga completamente il nucleo di h, piùeventualmente altri vettori. In altre parole, avremo sicuramente

Kerh ⊆ Kerh2 ⊆ . . . ⊆ Kerhr−1 ⊆ Kerhr = V

Lemma 5.2 (crescenza stretta della successione delle di). Sia ∀ i di = dim Kerhi. Ab-biamo che

d1 < d2 < · · · < dr−1 < dr = n

Ovvero, sicuramente ad ogni ulteriore applicazione della h, ci sono altri vettori non nulliche vengono mandanti in 0.

Dimostrazione. (per assurdo) Poniamo che esista un certo i < r tale che di = di+1. Per primacosa notiamo che i non può essere uguale a r−1 perché se così fosse avremmo dr−1 = dr = ncioè Kerhr−1 = V cioè hr−1 = 0, ma in tal caso xr−1 apparterrebbe all’ideale di h, e questoè assurdo perché xr−1 non è un divisore del polinomio minimo, che per ipotesi è xr.Consideriamo quindi i < r − 1 tale che di = di+1. Se così fosse avremmo Kerhi =Kerhi+1, perché per ipotesi Kerhi ⊆ Kerhi+1 e le dimensioni dei due nuclei sono uguali.Consideriamo ora un vettore v ∈ Kerhi+1: abbiamo

v ∈ Kerhi+1 ⇒ h(v) ∈ Kerhi ma Kerhi = Kerhi+1 ⇒

⇒ h(v) ∈ Kerhi+1 ⇒ v ∈ Kerhi+2 ⇒

⇒ Kerhi+2 ⊆ Kerhi+1

Ma poiché per ipotesi Kerhi+1 ⊆ Kerhi+2 abbiamo che Kerhi+1 = Kerhi+2. Ora, senecessario (ovvero se abbiamo anche che i < r − 2) ovviamente possiamo ripetere indutti-vamente il discorso precedente per dimostrare che Kerhi+2 = Kerhi+3 = ... = Kerhr.Tuttavia questo è assurdo perché se così fosse avremmo di = di+1 = ... = dr = n, cioèKerhi = Kerhr = V . In tal caso avremmo hi = 0 e quindi xi sarebbe nell’ideale di h, maquesto è impossibile perché esso non è un divisore del polinomio minimo, che per ipotesi èxr.

Questo significa che la successione delle dimensioni dei nuclei delle potenze di h cresce stretta-mente fino all’ r-esimo elemento, quando raggiunge il valore n, poi si stabilizza.Consideriamo ora Kerhr−1: esisterà un complementare Wr−1 di tale nucleo rispetto a V, ovveroun sottospazio tale che Kerhr−1 ⊕Wr−1 = Kerhr = V ; sia D = {w1, . . . , wbr−1} una base diWr−1. In effetti esistono infiniti complementari, e la scelta del complementare e della sua baseè arbitraria, ma tutti i complementari hanno dimensione pari a dr − dr−1. Grazie al lemmaprecedentemente dimostrato, sappiamo che questa dimensione non è nulla.Si noti che Span(h(w1), . . . , h(wbr−1)) ⊆ Kerhr−1 (infatti hr−1(h(wi)) = hr(wi) = 0 perchéhr = 0 per ipotesi).

Lemma 5.3. h(w1), . . . , h(wbr−1) sono vettori linearmente indipendenti.

Dimostrazione. Consideriamo una loro combinazione lineare nulla ho

a1h(w1) + · · ·+ abr−1h(wbr−1) = 0 ⇒ h(a1w1 + · · ·+ abr−1wbr−1) = 0 ⇒

⇒ a1w1 + · · ·+ abr−1wbr−1 ∈ Kerh ⊆ Kerhr−1

Page 40: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

38 Forme canoniche di Jordan | cap. 5

ma banalmente a1w1 + · · · + abr−1wbr−1 ∈ Wr−1 (perchè ovviamente i wi sono vettoridi Wr−1) quindi abbiamo a1w1 + · · · + abr−1wbr−1 ∈ Kerhr−1 ∩Wr−1 = {0} perché peripotesi Wr−1 e Kerhr−1 sono per ipotesi in somma diretta. Tuttavia sempre per ipotesiw1, . . . , wbr−1 sono linearmente indipendenti, e quindi a1w1 + · · · + abr−1wbr−1 = 0 ⇒⇒ a1 = · · · = abr−1 = 0

Lemma 5.4. Span(h(w1), . . . , h(wbr−1)) ∩Kerhr−2 = {0}.

Dimostrazione. Utilizzeremo un ragionamento simile a quello usato per il lemma precedente:sia w =

∑i aih(wi) = h(

∑i aiwi) ∈ Span(h(w1), . . . , h(wbr−1)) tale che w ∈ Kerhr−2 ⊂

Kerhr−1. Questo significa che hr−2(w) = 0 e quindi∑i aiwi ∈ Kerhr−1. Tuttavia abbiamo

anche∑i aiwi ∈ Wr−1 e quindi

∑i aiwi ∈ Kerhr−1 ∩Wr−1 = {0}. Questo implica che

w = h(∑i aiwi) = h(0) = 0.

La costruzione eseguita finora può essere ripetuta per la serie di nuclei delle potenze di h minori,ovvero possiamo

• prendere in considerazione Kerhr−3 ⊂ Kerhr−2 ⊂ Kerhr−1

• costruire il complementare di Span(h(w1), . . . , h(wbr−1)) ⊕ Kerhr−2 a Kerhr−1; sia Wr−2

tale complementare e Dr−2 = {wr−21 , . . . , wr−2

br−2} una sua base.

• osservare che Span(h2(w1), . . . , h2(wbr−1), h(wr−21 ), . . . , h(wr−2

br−2)) ⊆ Kerhr−2

• dimostrare che h2(w1), . . . , h2(wbr−1), h(wr−21 ), . . . , h(wr−2

br−2) sono linearmente indipendenti

(con una dimostrazione simile a quella del lemma (5.3))

• dimostrare che Span(h2(w1), . . . , h2(wbr−1), h(wr−21 ), . . . , h(wr−2

br−2)) ∩ Kerhr−3 = {0} (con

una dimostrazione simile a quella del lemma (5.4))

Dopodiché il ragionamento può essere ripetuto complementando Span(h2(w1), . . . , h2(wbr−1), h(wr−21 ), . . . , h(wr−2

br−2))

a Kerhr−2, e così via fino a arrivare al complemento a Kerh.

Osservazione 5.2. Per i < r− 1 abbiamo bi = 2di+2− di− di+1. La dimostrazione non è difficilee può essere effetuata per induzione. Il suo svolgimento non viene qui riportato 3.Si noti che questo non implica che bi non possa essere nullo.

Idealmente, possiamo pensare di inserire i vettori in un “tabellone” in cui si parte dai vettoridi D , e ad ogni riga si applica la h a tutti i vettori della riga precedente e si aggiungono quellidell’ultimo complementare trovato. In altre parole possiamo scrivere questi vettori in questomodo:

w1, . . . , wbr−1

h ↓ h(w1), . . . , h(wbr−1), wr−21 , . . . , wr−2

br−2

h ↓ h2(w1), . . . , h2(wbr−1), h(wr−21 ), . . . , h(wr−2

br−2), wr−3

1 , . . . , wr−3br−3

h ↓ . . .h ↓ . . .

hr−1(w1), . . . , hr−1(wbr−1), hr−2(wr−21 ), . . . , hr−2(wr−2

br−2), . . . . . .

Per costruzione i vettori contenuti nel tabellone formano una base. Inoltre si noti che ognicolonna del vettore è banalmente una base ciclica rispetto alla restrizione di h rispetto ai vettoricontenuti nella colonna stessa, e quindi come precedentemente osservato, la matrice associata atale restrizione sarà un blocco di Jordan di autovalore 0 e taglia pari all’altezza della colonna.Nella base data dai vettori presenti nel tabellone, scelti “andando in verticale” (cioè ordinati inmodo che tutti gli elementi di una colonna siano consecutivi; sia B tale base) dunque, la matriceassociata ad h sarà

3Se volete, potete farlo per esercizio.

Page 41: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 5.5 | Endomorfismi non triangolabili su R ed esplosioni 39

MBB(f) =

J(n1, 0) 0 0 . . . 00 J(n2, 0) 0 . . . 0

0 0. . .

......

.... . . 0

0 0 . . . 0 J(nt, 0)

(5.4)

dove t è il numero di colonne della tabella e nt è il numero di elementi in tale colonna. Ovviamenteil numero di colonne di altezza (e quindi, di blocchi di taglia) i è proprio bi, come si può capireintuitivamente anche solo dando un occhiata alla tabella stessa. Inoltre è altrettanto intuitivo cheil numero totale di colonne (e di blocchi) è pari alla dimensione dell’autospazio relativo all’unicoautovalore, e che il numero di blocchi di taglia i è uguale alla dimensione di Wi.

Teorema 5.2 (Jordan). Dato un K-spazio vettoriale V , ∀ f ∈ End(V ) triangolabile esiste unabase Bj tale che MBj

Bj(f) è una matrice diagonale a blocchi in cui ogni blocco è un blocco

di Jordan (ovvero nella forma (5.4)). Tale forma matriciale è unica a meno di permutarei blocchi tra loro, ed è univocamente determinata dai seguenti invarianti:

• Spettro(f)

• ∀λ ∈ Spettro(f), m(λ) (ovvero la molteplicità algebrica degli autovalori)

• ∀λ ∈ Spettro(f), ∀ k, 1 6 k 6 m(λ), dim Ker(f − λ id)k

Dimostrazione. Come già accennato precedentemente, per costruire una base del genere per unqualunque endomorfismo f è sufficiente applicare al polinomio minimo di f il teorema didecomposizione primaria e applicare alla restrizione della f a ognuno dei sottospazi incui V è stato decomposto la costruzione precedentemente sviluppata: infatti, ognuna di talirestrizioni ha lo spettro composto da un solo autovalore, e può quindi essere ridotta allanilpotenza come già visto. La base del sottospazio così trovata è, come visto, una serie dibasi cicliche; la matrice relativa a tale base sarà diagonale a blocchi e vi compariranno tutti esoli i blocchi di jordan relativi all’(unico) autovalore che compone lo spettro della restrizionedi f . Poichè tali sottospazi sono in somma di retta e rappresentano una decomposizionedi V , detta Bj l’unione di tali basi (conservando l’ordine), essa costituisce una base di Vche è ancora composta da una serie di basi cicliche. La matrice di f rispetto a Bj è quindiproprio una matrice diagonale a blocchi in cui ogni blocco è di Jordan, e Bj è proprio labase cercata4

Definizione 5.3. Una matrice diagonale a blocchi in cui ogni blocco è un blocco di Jordan, cioènella forma (5.4) si dice in forma canonica (o normale) di Jordan.

Definizione 5.4. Una base Bj tale cheMBj

Bj(f) è una matrice in forma canonica di Jordan si

dice base di Jordan

Corollario. Poiché è banalmente vero che due endomorfismi triangolabili sono coniugati se esolo se la loro forma canonica di jordan è uguale, gli invarianti prima presentati costitui-scono un set completo di invarianti per la relazione di coniugio tra endomorfismi triango-labili, che come ricordiamo costituiscono tutti gli endomorfismi costruibili se K è un campoalgebricamente chiuso.

5.5 Endomorfismi non triangolabili su R ed esplosioniPer quanto ci piaccia effettuare dimostrazioni prescindendo dal campo su cui i nostri spazi vetto-riali sono costruiti, alla fine (specialmente per la fisica) i campi più importanti sono due: R e C.Quest’ultimo è algebricamente chiuso, e quindi tutti gli endomorfismi sono triangolabili: questo

4In effetti questo discorso è già stato fatto in buona parte nel paragrafo sulla riduzione alla nilpotenza. Se miavete trovato poco chiaro, probabilmente vi conviene ridargli un’occhiata: è oggettivamente scritto meglio.

Page 42: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

40 Forme canoniche di Jordan | cap. 5

significa che, almeno per quanto riguarda i C-spazi vettoriali, abbiamo terminato la ricerca degliinvarianti per la relazione di coniugio.E R?Potremmo fingere che R sia un qualsiasi altro campo e dire che, in generale, non abbiamo ancoratrovato un invariante completo per tutti gli endomorfismi (anche non triangolabili), ma questovorrebbe dire dimenticarsi di un importante particolare: R è strettamente collegato a un campoalgebricamente chiuso, C (in effetti, ne è un sottocampo). Possiamo sfruttare questo fatto pertrovare una forma invariante anche per gli endomorfismi non triangolabili su R.Un endomorfismo non triangolabile ha il polinomio caratteristico non completamente fattorizza-bile; questo significa che anche nel polinomio minimo compaiono dei fattori di secondo grado nonulteriormente fattorizzabili in R. Ognuno di questi fattori avrà tuttavia una coppia di radici inC, composta da due valori coniugati5. Calcoliamo normalmente la forma canonica di Jordan inC, e otterremo una matrice a blocchi composta da un certo numero di blocchi di Jordan relativaad autovalori contenuti in R, e poi i blocchi relativi agli autovalori contenuti in C\R, in cui perogni blocco presente ne esiste un altro della stessa taglia e che ha come autovalore il coniugatodell’autovalore del primo. Prendiamo uno di questi blocchi di Jordan ed esplodiamolo: ovvero,dato un elemento α del blocco esso viene trasformato in un blocco 2× 2 nella forma

<(α) −=(α)=(α) <(α)

Questo crea un blocco di taglia doppia rispetto alla precedente. In pratica, se λ = eiθ, il bloccoquando viene esploso subisce una trasformazione del tipo

J(λ, n) =

λ 1 0

. . . . . .

0. . . 1

λ

−→

cos θ − sin θsin θ cos θ

1 00 1. . . . . .

. . . 1 00 1

cos θ − sin θsin θ cos θ

Se noi applicassimo il procedimento di esplosione a tutti i blocchi, otterremo una matrice di tagliapiù grande del necessario. Tuttavia, una volta esploso un blocco possiamo trascurare il corri-spondente blocco relativo all’autovalore coniugato, come si può dimostrare con una costruzionesimile a quella già effettuata per la costruzione di basi reali. Avremo la metà dei blocchi, maognuno sarà di taglia doppia e quindi otterremo proprio una matrice di dimensione pari a quelladi partenza. Poichè la forma canonica di Jordan su C è invariante completo per tutti gli endo-morfismi, e la forma esplosa appena trovata è univocamente determinata dalla forma canonicasu C (a meno di scambiare i blocchi o di trasporre i blocchi sulla diagonale, visto che l’esplosionedel valore α = e−iθ è la trasposta di quella di α), possiamo considerare la forma appena trovatacome un’invariante completo per la relazione di coniugio tra due qualsiasi endomorfismi di R.

5Ricordiamo che se un polinomio a coefficienti reali ha una radice complessa, il coniugato della radice ènecessariamente a sua volta una radice del polinomio in questione, e con la stessa molteplicità

Page 43: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Capitolo 6

Cenni di Geometria Affine

6.1 Motivazioni

6.1.1 Traslazioni

Sia V uno spazio vettoriale su R, v0 ∈ V , τv0 : V → V un’applicazione che manda v in v + v0:τv0 si dice una traslazione ; se v0 6= 0, allora τv0 non è lineare (infatti τv0(0) = v0 6= 0).Consideriamo il prodotto scalare standard 〈 , 〉 su Rn e la distanza euclidea d : Rn ×Rn → R+,d(p, q) 7→

√〈p− q, p− q〉 ∀ p, q ∈ V ; consideriamo poi le applicazioni g : Rn → Rn che sono

isometrie per la distanza d (cioè d(p, q) = d(g(p), g(q)

)∀ p, q ∈ Rn); abbiamo quindi g ∈

Isom(Rn, d) ⊇ O(n, R).Facciamo vedere che anche le traslazioni τv0 appartengono a Isom(Rn, d): d

(τv0(p), τv0(q)

)=√

〈(p+ v0)− (q + v0), (p+ v0)− (q + v0)〉 =√〈p− q, p− q〉 = d(p, q).

6.1.2 Sistemi lineari non omogenei

Abbiamo visto che un sistema di equazioni può sempre essere scritto nella forma AX = B,con A ∈ mRn, X ∈ Rn e B ∈ Rm. Se B = 0 il sistema si dice omogeneo e le sue soluzioniSol(AX = 0) formano un sottospazio vettoriale di Rn, mentre se B 6= 0 si presentano duecasi: Sol(AX = B) = ∅ o Sol(AX = B) 6= ∅; in quest’ultimo caso Sol(AX = B) non è unospazio vettoriale vero e proprio, ma si tratta di uno spazio vettoriale traslato per una soluzioneparticolare v0 ∈ Rn, ovvero Sol(AX=B) = v0 + Sol(AX=0).

6.1.3 Campi di vettori (vettori applicati)

Consideriamo il seguente tipo di grafico, molto usato in fisica:#«v1

#«v2

v1 e v2 sono, fisicamente parlando, due vettori che possono rappresentare le posizioni di duecorpi su una traiettoria o le loro velocità; dal punto di vista dell’algebra lineare v1 e v2 nonappartengono allo stesso spazio vettoriale, in quanto hanno punti d’applicazione diversi, mabasta, ad esempio, traslare v2 su v1 perché diventi un vettore vero e proprio, relativamente a v1.In questi esempi abbiamo visto degli oggetti molto simili agli spazi vettoriali e alle applicazionilineari, la cui differenza principale sembra risiedere nel fatto che la loro origine non coincide con0; osserviamoli più da vicino.

41

Page 44: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

42 Cenni di Geometria Affine | cap. 6

6.2 Spazi e Applicazioni Affini

6.2.1 Nozioni di baseDefinizione 6.1. Uno spazio affine E su uno spazio vettoriale V è dato da un’applicazione

Ψ: E × E → V che manda la coppia di elementi di E (P, Q) nel vettore# «

PQ ∈ V tale chesoddisfi le seguenti proprietà:

1. ∀ P ∈ E # «

PP = 0

2. ∀ P, Q, R ∈ E # «

PQ+# «

QR+# «

RP = 0

3. ∀ P ∈ E l’applicazione da E in V che manda Q ∈ E in# «

PQ ∈ V è bigettiva

Gli elementi di E sono chiamati punti dello spazio affine.

Osservazione 6.1 (Proprietà 2 ).Questa proprietà è detta anche del triangolo. Infatti, possiamo interpretare glielementi P, Q, R ∈ E come vertici di un triangolo: allora l’equazione che devo-no soddisfare significa che il triangolo è chiuso (se interpretiamo la loro sommacome l’usuale somma fra vettori in fisica, allora significa che il vettore risultanteritorna al punto di partenza).

P

Q

R

Osservazione 6.2 (Proprietà 3 ). Con questa applicazione P diventa un vettore origine: la strut-tura di spazio vettoriale di V viene trasportata su E; lo spazio affine in pratica è una famigliadi spazi vettoriali.

Esempio 6.1 (Esempio standard). Sia E = V , allora Ψ: V ×V → V manda (P, Q) in Q−P def=

# «

PQ. Controlliamo le tre proprietà:

1. P − P = 0

2. Q− P +R−Q+ P −R = 0

3. L’applicazione che manda Q ∈ E in# «

PQ ∈ V (ovvero la sottrazione) è bigettiva

In questo esempio, P e Q sono dei vettori di V , ma poiché E = V vengono pensati comeelementi di E e perciò (P, Q) rappresenta una coppia di punti. Noi avremo a che fare quasisempre con l’esempio standard.

Lemma 6.1. Per ogni P, Q ∈ E si ha# «

PQ = − # «

QP

Dimostrazione. Consideriamo P, Q, Q ∈ E: per la proprietà 2 abbiamo# «

PQ +# «

QQ +# «

QP = 0,per la proprietà 1 abbiamo

# «

QQ = 0 e quindi# «

PQ = − # «

QP .

Consideriamo l’applicazione definita nell’esempio standard: può essere riscritta come Q = P +# «

PQ; da un punto di vista strettamente algebrico questa espressione non ha senso, perché nonsappiamo cosa significhi sommare un vettore ad un punto, ma in realtà con questa notazionevogliamo dire che Q è l’unico punto di E che corrisponde al vettore

# «

PQ per mezzo della bigezionedefinita nell’esempio; in generale quando scriveremo Q = P + v con v ∈ V intenderemo che Q èl’unico punto di E tale che v =

# «

PQ.Gli spazi vettoriali sono caratterizzati da alcuni concetti fondamentali:

1. Combinazioni lineariSi definisce combinazione lineare di vettori di V un’espressione del tipo a1v1 + · · ·+ akvk,ai ∈ K, vi ∈ VK.

2. Sottospazi vettorialiSi definisce sottospazio vettoriale un sottoinsiemeW ⊂ V, W 6= ∅ chiuso per combinazionelineare.

3. BaseSi definisce base di V un insieme B = {v1, . . . , vn}, vi ∈ V tali che i vi generano tutto Ve sono linearmente indipendenti.

Page 45: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 6.2 | Spazi e Applicazioni Affini 43

4. DimensioneSi definisce dimensione di V la cardinalità di B, ovvero dimV = #B.

5. Applicazioni lineari fra spazi vettoriali sullo stesso campo KDati due spazi vettoriali V e W su K un’applicazione f : V →W si dice lineare se preservale combinazioni lineari, ovvero f(a1v1 + · · ·+ anvn) = a1f(v1) + · · ·+ anf(vn).

Esaminiamo gli stessi concetti nell’ambito degli spazi affini.

Combinazioni affini

Per analogia con le combinazioni lineari, la cosa più naturale da scrivere è a0P0 + · · · + akPk,ai ∈ K, Pi ∈ E; ma che senso ha questa scrittura? Cosa significa sommare fra loro dei punti?Definiamo quindi una combinazione affine di punti di E come a0P0 + · · ·+akPk

def= P0 +a0

# «

P0P0 +· · · + ak

# «

P0Pk; il risultato di questa espressione è l’unico punto Q ∈ E tale che il vettore v datodalla combinazione lineare a0

# «

P0P0 + · · ·+ ak# «

P0Pk sia uguale a# «

P0Q.Perché le combinazioni affini siano ben definite bisogna che il risultato non dipenda dalla sceltadi uno fra i punti Pi dati, ovvero che sia verificata a0P0 + · · · + akPk = P0 +

∑j aj

# «

P0Pj =Ps +

∑j aj

# «

PsPj ∀ s ∈ [0, k].Vediamo cosa significa questa condizione nell’esempio standard E = V : P0 +

∑i ai

# «

P0Pi =P1 +

∑i ai

# «

P1Pi ⇐⇒ P0 +∑i ai(Pi − P0) = P1 +

∑i ai(Pi − P1)⇐⇒ P0 −

∑i aiP0 +

∑i aiPi =

P1−∑i aiP1 +

∑i aiPi ⇐⇒ P0−P1 =

∑i aiP0−

∑i aiP1, da cui si ricava che una combinazione

affine di punti è possibile solo se∑i ai = 1.

Vogliamo ora dimostrare quanto affermato sopra nel caso standard usando solo le proprietà dellospazio affine, valide quindi per qualsiasi caso.

Dimostrazione. Sia E uno spazio affine su V , e P0, . . . , Pk ∈ E, a0, . . . , ak tali che∑i ai = 1.

Per semplicità prendiamo s = 1 e consideriamo il triangolo formato dai punti P0, P1, Pi;per la proprietà 2 abbiamo quindi

# «

P0P1 +# «

P1Pi +# «

PiP0 = 0 ovvero# «

P1Pi = − # «

P0P1 −# «

PiP0.Allora P1 +

∑i ai(− # «

P0P1 +# «

P0Pi)

= P1 +(∑

i ai) # «

P1P0 +∑i ai

# «

P0Pi; per ipotesi∑i ai = 1

e quindi abbiamo P1 +# «

P1P0 +∑i ai

# «

P0Pi, ma P1 +# «

P1P0 = P0 da cui la tesi.

Sottospazi affini

Dato un sottoinsieme F ⊆ E si hanno due casi: F = ∅ oppure F 6= ∅ e chiuso per combinazioniaffini.

Proposizione 6.1. Sia E uno spazio affine su V ed F ⊆ E un sottospazio affine non vuoto;valgono le seguenti proprietà:

1. Fissato P0 ∈ F esiste un’applicazione πP0 : E → V che manda Q ∈ E in# «

P0Q ∈ V .Consideriamo πP0(E) = W ⊆ V ; allora W è un sottospazio vettoriale di V ed inoltreF = P0 +W .

2. ∀P0, P1 ∈ F πP0(F ) = πP1(F ) = W ; quindi W dipende soloda F ed è chiamato giacitura di F o anche spazio vettorialetangente di F (W = TF ).

P0 F=P0+W

TF=W

3. ∀P0 ∈ E, ∀ W ⊆ V sottospazio vettoriale, F = P0 +W è l’unico sottospazio affine diE tale che TF = W .

Base affine

Definizione 6.2. R = {P0, . . . , Pn} è una base affine di E se B ={ # «

P0P1, . . . ,# «

P0Pn}è una

base di V .

Lemma 6.2. Tale proprietà non dipende dalla scelta del punto base.

Page 46: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

44 Cenni di Geometria Affine | cap. 6

Corollario. Se R = {P0, . . . , Pn} è una base affine di E allora ogni punto P ∈ E si scrivein modo unico come combinazione affine dei punti della base, cioè P = a0P0 + · · · +anPn,

∑i ai = 1 e (a0, . . . , an) sono le coordinate affini di P rispetto a R.

Dimensione

Per definizione dimE = dimV , mentre #R = #B + 1.In generale se F ⊆ E è un sottospazio affine non vuoto dimF = dimTF (caso particolare:TE = V ).Esempio 6.2. PrendiamoAn, lo spazio affine standard suKn; C = {c1, . . . , cn} è la base canonica

di Kn; chi è la base affine canonica?CAn = {0, c1, . . . , cn} è la base affine canonica di An. Un vettore P ∈ Kn lo possiamoscrivere in modo unico come P = a1c1 + · · · + ancn e (a1, . . . , an) sono le sue coordinatevettoriali; lo stesso vettore lo possiamo pensare appartenente ad An e quindi si può scriverein modo unico come P = b00+b1c1 + · · ·+bncn, con b1, . . . , bn = a1, . . . , an e b0 = 1−

∑i ai

e (b0, . . . , bn) sono le sue coordinate affini.

Applicazioni affini

Dati due spazi affini E su V , F su W e una’applicazione g : E → F , quand’è che g si definisceapplicazione affine?

Definizione 6.3. f : E → F è un’applicazione affine se preserva le combinazioni affini dipunti, cioè se f(aoP0 + · · ·+ akPk) = a0f(P0) + · · ·+ akf(Pk).

Fissiamo due punti P0 ∈ E, Q0 ∈ F, Q0 = f(P0) e consideriamo ildiagramma a lato: abbiamo che df = πQ0 ◦ g ◦ π−1

P0; per df valgono le

seguenti proprietà:

E Ff

V

πP0

Wdf

πQ0

1. df è un’applicazione lineare per ogni punto P0 ∈ E

2. df non dipende dalla scelta di P0, ma solo da f ed è detta parte lineare o differenzialeo anche applicazione tangente a F di f e si ha f(P ) = df

( # «

P0P)

+Q0

Se poniamo P0 = 0 abbiamo che f(Q) = df(Q) + f(0) (Q dunque rappresenta un vettore per dfe un punto per f) e quindi la linearità di f dipende dal suo valore in 0.Osservazione 6.3. Sia f : E → F affine; se H ⊆ E è un sottospazio affine, allora f(H) è un sot-

tospazio affine di V . Viceversa, se K ⊆ F è un sottospazio affine, allora la controimmaginef−1(K) è un sottospazio affine di E.

Dato uno spazio vettoriale V con GL(V ) si denota l’insieme degli endomorfismi invertibili diV ; analogamente, le applicazioni affini invertibili, chiamate trasformazioni affini o affinità,definiscono l’insieme Aff(E) = {f : E → E | f affine e invertibile}. Fra questi due insiemi esisteuna relazione particolare, come dimostra il seguente lemma:

Lemma 6.3. Sia E uno spazio affine su V e f : E → E un’applicazione affine; f ∈ Aff(E) se esolo se df ∈ GL(V )

6.2.2 Rappresentazioni matriciali di applicazioni affiniNel corso di Geometria I abbiamo visto come ogni applicazione linearef : V → W ha una matrice associata la cui forma dipende dalla base dipartenza e di arrivo: A = MB

D (f); questo risultato ha portato anche adaffermare che Hom(Kn, Km) è isomorfo a mKn.Consideriamo f : An → Am affine: f ∈ Homa(An, Am) e possiamoscrivere f(X) = f(0) + df(X), con f(0) ∈ Am, df(X) ∈ mKn ef(X) ∈ Am.

VB WD

f

Kn

[ ]B

KmA

[ ]D

f si può rappresentare come una matrice di m righe per n + 1 colonne, composta di due parti:A ∈ mKn che rappresenta df e B ∈ Am che rappresenta f(0), interpretato come vettore trasla-zione. Possiamo quindi affermare che Aff(An) =

{(A|B) | A ∈ GL(n, K), B ∈ An

}.

Page 47: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 6.2 | Spazi e Applicazioni Affini 45

Ma come sarà la composizione di applicazioni affini nella rappresentazione matriciale?Per le applicazioni lineari basta fare il prodotto righe per colonne delle matrici associate; per leapplicazioni affini c’è però una differenza: siano f, g ∈ Aff(An), f = (A|B), g = (M |N); alloraf ◦ g = f

(g(X)

)= f(MX+N) = A(MX+N) +B = AMX+AN +B; definiamo quindi il pro-

dotto fra due matrici associate a due applicazioni affini come: (A|B)(M |N)def= (AM |AN +B).

Data B = {P0, . . . , Pn}, base affine di E, e C = {0, E1, . . . , En}, base affine canonica di An,esiste un isomorfismo [ ]aB che permette di passare da E ad An allo stesso modo in cui si passada V a Kn, il che completa l’analogia fra la rappresentazione matriciale delle applicazioni linearie quelle affini.

Prendiamo An+1 ⊃ An e fissiamo una realizzazione di An come sottospa-zio affine di An+1 tramite un’applicazione che manda un punto in An dicoordinate (x1, . . . , xn) nel punto in An+1 di coordinate (x1, . . . , xn, 1);la base affine canonica di An, C = {0, c1, . . . , cn}, si trasforma quindi inC = {cn+1, c1 + cn+1, . . . , cn + cn+1} dove cn+1 è l’ultimo vettore dellabase affine canonica di An+1.

c1

cn+1c1+cn+1

Consideriamo fra tutte le matrici M ∈ GL(n + 1, K) solo quelle che mandano An in sé stesso;queste formano l’insieme G = {M ∈ GL(n+ 1, K) |M(An) = An}: com’è fatta M?Sappiamo che i punti di An hanno l’ultima coordinata uguale a 1, quindi, preso P ∈ An, M(P )sarà uguale a (p1, . . . , pn, 1); poiché l’ultima coordinata deve rimanere invariata, la matrice devenecessariamente essere della forma (

An×n B0 1

)con B ∈ Kn; vediamo la legge di composizione per M :

(A B0 1

)(C D0 1

)=(AC AD+B0 1

).

Sia questa legge di composizione che questa nuova rappresentazione matriciale coincidono conquelle descritte precedentemente: esistono quindi due possibili codifiche canonicamente inter-cambiabili delle matrici associate ad applicazioni affini; in particolare dalla seconda codifica sideduce che la trasformazioni affini di An sono le trasformazioni lineari di An+1 che mandanoAn ⊂ An+1, pensato come sottospazio affine di An+1, in sé stesso (ovvero An è M -invariante).

6.2.3 Caratterizzazione geometrica delle trasformazioni affiniSia E uno spazio affine su VK con dimE = 1: E è una retta affine. Prendiamo tre punti distintiP0, P1, P2 su E; P0 e P1 formano una base di E ed abbiamo quindi che

# «

P0P2 = λ# «

P0P1, conλ ∈ K: λ si dice rapporto semplice di P0, P1, P2 e si scrive λ = [P0 P1 P2]. Il rapporto semplicedipende dall’ordine in cui vengono presi i punti e quindi varia per una permutazione di questi:nella tabella sono elencati tutti i casi con tre punti distinti. Ammettiamo adesso che due punti

[P0 P1 P2] [P1 P0 P2] [P2 P0 P1] [P0 P2 P1] [P1 P2 P0] [P2 P1 P0]

λ 1− λ λ−1λ

11−λ

λλ−1

siano uguali; avremo tre casi: [P RP ]⇒ # «

PP = λ# «

PR⇒ λ = 0; [RP P ]⇒ # «

RP = λ# «

RP ⇒ λ = 1;[P P R]⇒ # «

PR = λ# «

PP ⇒ λ = 1/0def= ∞.

Esempio 6.3. Prendiamo E = C e tre punti z0, z1, z2 ∈ E; λ = z2−z0z1−z0 . I tre punti formano un

triangolo e quindi il rapporto semplice è un modo di classificare le classi di similitudine deitriangoli orientati: se λ ∈ R (λ = λ), z0, z1 e z2 sono allineati ed il triangolo è degenere;se il triangolo è equilatero, λ assume due valori differenti dipendenti dall’orientamento (èil caso con maggior simmetria).

Consideriamo in generale un’applicazione f : E → E: quali condizioni dobbiamo porre affinchéf sia un’affinità?Ovviamente f dev’essere bigettiva e poi deve mandare sottospazi affini in sottospazi affini, pre-servandone le dimensioni: se F ⊆ E è un sottospazio affine, allora f(F ) = F ′ è anch’esso unsottospazio affine e f | : F → F ′ è un isomorfismo affine; in particolare, f manda rette affini inrette affini e f ristretta ad una retta preserva λ.Possiamo perciò enunciare il seguente

Page 48: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

46 Cenni di Geometria Affine | cap. 6

Teorema 6.1. Sia f : E → E un’applicazione affine; f ∈ Aff(E) se e solo se valgono le seguentiproprietà:

1. f è bigettiva

2. f manda rette in rette

3. Esiste una retta r tale che f |r preserva il rapporto semplice

L’ultima condizione serve per lavorare in un campo qualsiasi: infatti, se abbiamo f : R2 → R2,f ∈ Aff(R2) se sono verificate solo le prime due proprietà.

Page 49: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Capitolo 7

Quadriche

Definizione 7.1. Una quadrica in An è il luogo di zeri di un polinomio P (x1, · · · , xn) ∈K[x1, · · · , xn] di secondo grado e si scrive Q(P ) = {P ∈ K2[x1, · · · , xn] | P = 0} ⊆ An.

Se n = 2 le quadriche vengono dette anche coniche; noi tratteremo solo questo caso.Sia P (x1, x2) = a11x

21 + a22x

22 + 2a12x1x2 + 2b1x1 + 2b2x2

2 + d, con (a11, a12, a22) 6= (0, 0, 0);data la conica Q(P ), P è detta un’equazione della conica; supponiamo ora che Q(P ) = Q(P ′):che relazione c’è fra P e P ′?Cerchiamo delle condizoni necessarie e sufficienti sulle equazioni P e P ′ in modo che Q(P ) =Q(P ′).Sia λ ∈ K, λ 6= 0 tale che P ′ = λP ; allora è banalmente ovvio che Q(P ) = Q(P ′). L’implicazionecontraria non è sempre vera, ma dipende dal campo: sia K = R, P = x2

1 + x22 = 0 e P ′ = 2x2

1 +x2

2 = 0, abbiamo che Q(P ) = Q(P ′) = {0}, ma P ′ 6= λP ; analogamente sia P = x21 + x2

2 + 1 = 0e P ′ = 2x2

1 + x22 + 1 = 0, abbiamo che Q(P ) = Q(P ′) = ∅, ma P ′ 6= λP ; se invece K = C allora

Q(P ) = Q(P ′)⇔ P ′ = λP .Possiamo considerare [P ] = {P ∈ K[x1, x2]}/P∼P ′⇔P ′=λP, λ6=0 e l’applicazione che manda unaquadrica Q(P ) nella sua classe d’equivalenza [P ]: su C quest’applicazione è bigettiva, mentre suR no (in realtà è bigettiva solo se consideriamo le coniche Q(P ) che rappresentano curve).

7.1 Classificazione affine

Definizione 7.2. Due quadriche Q e Q′ si dicono affinemente equivalenti se e solo se esistef ∈ Aff(An) tale che f(Q) = Q′.

Studiamo il quoziente K[x1, · · · , xn]/P∼P ′⇔P ′=λ(P◦f), f∈Aff(An), che ci permetterà di giungeread una classificazione affine delle quadriche.Cominciamo col notare che l’equazione di una conica P (x1, x2) = a11x

21 + a22x

22 + 2a12x1x2 +

2b1x1 + 2b2x22 + d si può anche scrivere come

(x1 x2

)(a11 a12

a12 a22

)(x1

x2

)+ (b1, b2)

(x1

x2

)+ d

In generale potremo scrivere P (X) = tXAX + tBX + d, A ∈ nKn, A = tA 6= 0, B, X ∈ Kn: adogni quadrica possiamo dunque associare una matrice M

M =(

A BtB d

)47

Page 50: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

48 Quadriche | cap. 7

dove M ∈ n+1Kn+1 tale che tM = M e A 6= 0; notiamo che se prendiamo X ∈ An e lotrasformiamo in Y ∈ An+1, Y =

(X1

)abbiamo che P (X) = tYMY . Infatti (per n = 2)

(x1 x2 1

) a11 a12 b1a12 a22 b2b1 b2 d

x1

x2

1

=(x1 x2 1

)a11x1 + a12x2 + b1a12x1 + a22x2 + b2b1x1 + b2x2 + d

= P (x1, x2)

La nostra relazione di equivalenza diverrà allora M ∼ M ′ ⇔ M ′ = λtRMR, λ 6= 0, con R ∈Aff(An) ovvero, posto R =

(P D0 1

), P ∈ GL(n, K), D ∈ Kn,

M ′ = λ

(tP 0tD 1

)(A BtB d

)(P D0 1

)= λ

(tP 0tD 1

)(AP AD +BtBP tBD + d

)=

= λ

(tPAP tPAD + tPB

tDAP + tBP tDAD + 2tDB + d

)Notiamo che A varia con la stessa legge di trasformazione dei prodotti scalari e anche l’interamatriceM nella relazione d’equivalenza subisce una trasformazione simile; possiamo allora usarei risultati della classificazione dei prodotti scalari per ottenere una classificazione affine dellequadriche.Prima di proseguire diamo alcune nozioni che ci torneranno molto utili in seguito:

Definizione 7.3. Sia E uno spazio affine e P ∈ E un suo punto; la simmetria centrale dicentro P è la trasformazione affine SP tale che per ogni Q ∈ E, SP (Q) = Q′ implicaP = 1

2Q+ 12Q′.

Esempio 7.1. Si verifica facilmente che l’applicazione S0(x) = −x, con x ∈ Kn, corrisponde allasimmetria centrale rispetto all’origine.

Definizione 7.4. M ammette un centro di simmetria P se e solo se la quadrica Q(M) è inva-riante per SP o, ciò che è lo stesso, P è un centro di simmetria per Q(M) se e solo se perogni x ∈ Q(M), y = 2P − x ∈ Q(M). In tal caso M si dice a centro.

Osservazione 7.1. Se B = 0 allora nell’equazione non compaiono termini di primo grado e quindi0 ∈ Kn è un centro di simmetria per la quadrica: infatti y = −x e poiché i termini variabilirimasti sono tutti di secondo grado, si ha che x ∈ Q(M)⇔ −x ∈ Q(M).

Osservazione 7.2. Se M è a centro possiamo spostare l’origine nel centro P ed ottenere B = 0.Infatti, poiché una traslazione si codifica con T =

(I D0 1

), esisterà una traslazione tale che

M ′ = tTMT , con B′ = 0.

Possiamo sfruttare queste due osservazioni per stabilire quando una quadrica è a centro oppureno: applicando una pura traslazione a M otteniamo che B′ = AD + B = 0; allora il centro disimmetria sarà rappresentato dalle soluzioni del sistema AX = −B. Per il teorema di Rouché -Capelli sappiamo che questo sistema è risolvibile se e solo se rnkA = rnk(A|B); in particolare,se detA 6= 0, A è invertibile e la soluzione è unica, cioè esiste un unico centro di simmetria perM , mentre, nel caso delle coniche, se rnkA = rnk(A|B) = 1, il centro è rappresentato da unaretta.Abbiamo così trovato un primo invariante per la relazione d’equivalenza: se rnkA = rnk(A|B)allora la quadrica è a centro, altrimenti è senza centro; in questo modo possiamo dividere lequadriche in due grandi classi.Notiamo che il fatto che il rango sia un invariante non è poi così sorprendente, perché A sicomporta a tutti gli effetti (sia per come è definita che per come si trasforma) come un prodottoscalare e in quanto tale possiede gli stessi invarianti (la relazione di equivalenza affine infatti è,a parte un fattore moltiplicativo, la stessa del cambiamento di base dei prodotti scalari).Analizziamo ora separatamente i due casi per n = 2.

Page 51: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 7.1 | Classificazione affine 49

7.1.1 Caso senza centroPoiché non è presente un centro di simmetria, rnkA = 1 e quindi operando con una matrice deltipo R =

(P 00 1

), in cui manca la parte di traslazione, otteniamo

M =

1 0 B0 0tB d′

Adesso effettuiamo invece una traslazione pura ed otteniamo

M =

1 0 00 0 e0 e f

in cui e 6= 0 (altrimentiM avrebbe centro). Il determinante diM è diverso da zero (detM = −e2)e quindi rnkM = 3; la forma normale della conica (indipendete dal campo) sarà

M1,3 =

1 0 00 0 10 1 0

P (x1, x2) = x21 + 2x2

che rappresenta una parabola in R e una parabola complessa in C.

7.1.2 Caso a centroPoiché M possiede un centro di simmetria, possiamo sempre trovare una traslazione che tra-sformerà la conica in M =

(A 00 d

); da ora in avanti non faremo più traslazioni, ma agiremo con

matrici del tipo R =(P 00 1

).

d 6= 0

Possiamo portare la matrice nella forma M =(A′ 00 1

)moltiplicando per λ = 1

d da cui si ricavache rnkA < rnkM e perciò agendo con R otteniamo

M =(

tPA′P 00 1

)A questo punto, poiché la classificazione dei prodotti scalari dipende dal campo, bisogna distin-guere fra C e R.

K = C Abbiamo due casi, uno in cui rnkA = 2 e l’altro in cui rnkA = 1 a cui corrispondonole forme normali

M2,3 =

1 0 00 1 00 0 1

P (x1, x2) = x21 + x2

2 + 1

M1,2 =

1 0 00 0 00 0 1

P (x1, x2) = x21 + 1

La prima conica rappresenta un’ellisse complessa, mentre la seconda due rette parallele diequazioni x1 − i = 0 e x1 + i = 0.

K = R Su R dobbiamo considerare anche le segnature σ(A), σ(M) dei prodotti scalari, in-varianti per trasformazioni affini, ma non per moltiplicazione per λ: infatti se λ < 0,i+ e i− vengono scambiati; possiamo però considerare τA =

∣∣i+(A) − i−(A)∣∣ e τM =∣∣i+(M)− i−(M)

∣∣ che sono completamente invarianti per la relazione di equivalenza affine.

Page 52: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

50 Quadriche | cap. 7

Anche qui distinguiamo fra rnkA = 2 e rnkA = 1, ma le forme normali sono di più ri-spetto a quelle complesse a causa delle segnature; quando A è invertibile avremo quindi:(τ(A), τ(M)

)= (2, 3), (2, 1) e (0, 1) le cui forme normali sono

M2,3 =

1 0 00 1 00 0 1

P (x1, x2) = x21 + x2

2 + 1

M2,3 =

−1 0 00 −1 00 0 1

P (x1, x2) = x21 + x2

2 − 1

M2,3 =

1 0 00 −1 00 0 1

P (x1, x2) = x21 − x2

2 + 1

La prima conica rappresenta ovviamente il vuoto, in quanto somma di numeri positivi, laseconda conica invece rappresenta un’ellisse mentre la terza un’iperbole.Se A non è invertibile abbiamo

(τ(A), τ(M)

)= (1, 2) e (1, 0) a cui corrispondono le forme

normali

M1,2 =

1 0 00 0 00 0 1

P (x1, x2) = x21 + 1

M1,2 =

−1 0 00 0 00 0 1

P (x1, x2) = x21 − 1

La prima conica rappresenta sempre il vuoto, mentre la seconda due rette parallele diequazioni x1 − 1 = 0 e x1 + 1 = 0.

d = 0

Poiché d = 0, rnkA = rnkM e quindi possiamo scrivere M =(A 00 0

); a questo punto agiamo con

una trasformazione affine priva di traslazione ed otteniamo

M =(

tPAP 00 0

)

K = C Come prima, abbiamo il caso in cui rnkA = 2 e quello in cui rnkA = 1, a cuicorrispondono le forme normali

M2,2 =

1 0 00 1 00 0 0

P (x1, x2) = x21 + x2

2

M2,2 =

1 0 00 0 00 0 0

P (x1, x2) = x21

La prima conica rappresenta due rette incidenti di equazioni x1 − ix2 = 0 e x1 + ix2 = 0,mentre la seconda rappresenta una retta doppia.

K = R Se A è invertibile avremo(τ(A), τ(M)

)= (2, 2) e (0, 0) a cui corrispondono le forme

Page 53: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 7.2 | Classificazione isometrica 51

normali

M2,2 =

1 0 00 1 00 0 0

P (x1, x2) = x21 + x2

2

M1,1 =

1 0 00 −1 00 0 0

P (x1, x2) = x21 − x2

2

La prima conica rappresenta un punto (in questo caso l’origine), mentre la seconda duerette incidenti di equazioni x1 − x2 = 0 e x1 + x2 = 0.Se A non è invertibile abbiamo un solo caso

(τ(A), τ(M)

)= (1, 1) a cui corrisponde la

forma normale

M2,2 =

1 0 00 0 00 0 0

P (x1, x2) = x21

che rappresenta una retta doppia.

Abbiamo completato la classificazione affine delle coniche: su C la coppia{

rnkA, rnkM}è un

invariante completo, mentre su R abbiamo bisogno di{

rnkA, rnkM, τ(A), τ(M)}.

Riepiloghiamo i risultati ottenuti in una tabella:

K Invariarianti Equazione Curva

C

rnkA rnkM2 3 x2

1 + x22 + 1 = 0 ellisse

1 2 x21 + 1 = 0 rette parallele

2 2 x21 + x2

2 = 0 rette incidenti1 1 x2

1 = 0 retta doppia1 3 x2

1 + 2x2 = 0 parabola

R

rnkA rnkM τ(A) τ(M)

2 32 3 x2

1 + x22 + 1 = 0 vuoto

2 1 x21 + x2

2 − 1 = 0 ellisse0 1 x2

1 − x22 + 1 = 0 iperbole

1 2 1 2 x21 + 1 = 0 vuoto

1 0 x21 − 1 = 0 rette parallele

2 2 2 2 x21 + x2

2 = 0 punto0 0 x2

1 − x22 = 0 rette incidenti

1 1 1 1 x21 = 0 retta doppia

1 3 1 3 x21 + 2x2 = 0 parabola

7.2 Classificazione isometricaConsideriamo adesso l’equivalenza affine M ∼ M ′ ⇔ M ′ = λtRMR, λ 6= 0 nel caso in cuiR ∈ O(2); avremo quindi tR = R−1 e, per il teorema spettrale, la sottomatrice A′ di M ′diventerà diagonale e quindi potremo scrivere

M ′ =

µ 0 00 ν 00 0 γ

nel caso in cui M sia a centro e

M ′ =

µ 0 00 0 γ0 γ 0

Page 54: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

52 Quadriche | cap. 7

nel caso in cui M non sia a centro, con µ, ν ∈ SpettroM .Notiamo che poiché R =

(P b0 1

), detR = detP = ±1 e quindi detM è un’invariante per isometrie

affini (det tRMR = det tR detM detR); se però moltiplichiamo per λ, trλA′ = λ trA′, detλA′ =λ2 detA′ e detλM ′ = λ3 detM ′.Tracce e determinanti non sono perciò invarianti per l’equivalenza affine, ma possiamo considerarei seguenti rapporti:

tr2A′

detA′=λ2 tr2A

λ2 detA=

tr2A

detA

tr3A′

detM ′=

λ3 tr3A

λ3 detM=

tr3A

detM

det3A′

det2M ′=

λ6 det3A

λ6 det2M=

det3A

det2M

Questi sono invece invarianti (ovviamente lo sono anche i loro reciproci): basta conoscere due diquesti rapporti e si possono trovare detA, detM e trA a meno di multipli.Mostriamo che usando l’insieme {detA, detM, trA} otteniamo una classificazione quasi equiva-lente a quella trovata in precedenza.Consideriamo prima il caso in cui detM = 0 (cioè rnkM = 2 o rnkM = 1): se detA < 0, poichéil segno del determinante è invariante per le trasformazioni dei prodotti scalari, τ(A) = 0 e quindila conica è composta da due rette incidenti in R; se detA > 0, per lo stesso motivo di prima,τ(A) = 2 e quindi la conica rappresenta una coppia di rette incidenti in C (ovvero un punto inR); se invece detA = 0 (cioè rnkA = 1) non abbiamo abbastanza elementi per distinguere fra lediverse forme di coniche e la classificazione perciò non è completa.Consideriamo adesso detM 6= 0 (rnkM = 3): se detA = 0 è per forza rnkA = 1 e quinditroviamo una parabola; se detA < 0, con lo stesso ragionamento sulle segnature dei prodottiscalari di prima, possiamo dire che τ(A) = 0 e quindi la conica è un’iperbole (in particolare èequilatera se trA = 0); se infine detA > 0, la conica è un’ellisse in R se trAdetM < 0 mentrerappresenta un’ellisse in C (il vuoto in R) se trAdetM > 0.I rapporti trovati sopra quindi sono degli invarianti completi per rnkM = 3 e per rnkM = 2(solo se detA 6= 0).

7.3 Complementi

7.3.1 Fasci di coniche

Sia Cλ ={x2 + 2λxy + (1 − λ)y2 + 2x − 2λy + 1 − λ = 0; λ ∈ R

}un facio di coniche; la sua

matrice associata è

M =

1 λ 1λ 1− λ −λ1 −λ 1− λ

Perché Cλ sia non degenere deve essere rnkM = 3, da cui si ricava λ 6= 0, λ 6= 3±

√13

2 , λ 6= −1±√

52 ;

consideriamo adesso A: detA = 0 ⇔ 1 − λ − λ2 = 0 e quindi se la conica è non degenerernkA = 2; se rnkM = 3, usando l’insieme di invarianti {detM, detA, trA}, Cλ è un’iperboleper λ < −1−

√5

2 e λ > −1+√

52 , un’ellisse per λ ∈

(−3−√

132 , 0

)e il vuoto per λ ∈

(−1−√

52 , −3−

√13

2

)e λ ∈

(0,−1+

√5

2

).

Troviamo ora il luogo dei centri:{x+ λy = −1λx+ (1− λ)y = λ

⇐⇒

{λ = −x+1

y

−x(x+1)y + y(y+x+1)

y + x+1y = 0

⇐⇒ −x2 + yx+ y2 + y − 1 = 0

quindi anche il centro è a sua volta una conica e più precisamente un’iperbole.Un fascio completo di coniche si può scrivere come µ(x2−y2 +2x+1)+λ(y2 +2xy−2y−1) = 0,con µ, λ ∈ R o meglio anche come µ′C1 + λ′C2 = 0, con µ′, λ′ ∈ R e C1, C2 coniche degeneri(che sono più semplici da scrivere).

Page 55: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

§ 7.3 | Complementi 53

Per esempio, per determinare tutte le coniche (e quindi un fascio) passantiper 4 punti basta prendere due coppie di rette parallele (cioè due coniche de-generi) e moltiplicarle per λ e µ. Il fascio µx(x − 1) + λy(y − 1) = 0 descrivetutte e sole le coniche passanti per i quattro punti in figura.

(0, 1) (1, 1)

(1, 0)(0, 0)

P si dice punto base del fascio se tutte le coniche del fascio passano per P . Per trovare ipunti base di un fascio, basta trovare i punti d’intersezione di due coniche qualunque (meglio sedegeneri) appartenenti al fascio.

7.3.2 Completamento a quadrato

Una tecnica molto utile e veloce per riconoscere il tipo di una conica è quella di completare aquadrato l’equazione della conica. Facciamo un esempio: sia C = x2 + 4xy + y2 + 2x − 2y + 3l’equazione di una conica; il termine 4xy è un ottimo candidato ad essere un doppio prodotto,ma poiché sono presenti anche termini in x e y è bene cercare di tirare fuori il quadrato di untrinomio del tipo αx+βy+γ; se riscriviamo C come (x2 +4xy+4y2 +2x+4y+1)−3y2−6y−2otteniamo (x+ 2y + 1)2 − 3(y2 + 2y− 2/3) = (x+ 2y + 1)2 − 3(y + 1)2 + 5; infine, effettuando ilcambio di variabili X = x+ 2y+ 1 e Y = y+ 1, otteniamo C = X2 − 3Y 2 + 5 che è chiaramentel’equazione di un’iperbole.

7.3.3 Rette tangenti e assi delle coniche

Data una conica C di equazione f(x, y) = 0, consideriamo il punto P = (x0, y0) ∈ C: la rettatangente a C in P è ∂f

∂x (x0, y0)(x−x0)+ ∂f∂y (x0, y0)(y−y0) = 0. Infatti, poiché la retta tangente

alla curva in P dev’essere ortogonale al gradiente della curva in P , si ha, posto #«v = (x−x0, y−y0)un vettore passante per P e per la conica, <

#«∇f, v >= 0.Il gradiente dell’equazione di una conica si rivela molto utile anche nel caso si debba trovareil vertice di una parabola: sapendo la direzione dell’asse, basta controllare quando il gradientediventa parallelo all’asse: quel punto sarà il vertice.

Poniamoci ora il problema di trovare gli assi di una conica: dal corso di Geometria I sappiamoche diagonalizzare una matrice significa trovare un cambiamento di base in cui la matrice è nellaforma più semplice possibile. Se consideriamo la sottomatrice A di una conica, possiamo cercaredi diagonalizzarla, ma poiché A si comporta anche come un prodotto scalare, possiamo conside-rarla a tutti gli effetti come un prodotto scalare e quindi possiamo applicare il teorema spettralead essa: esisterà quindi una matrice D tale che A′ = tDAD sarà diagonale; D in particolareappartiene al gruppo ortogonale e quindi, poiché è invertibile, rappresenta la trasformazioneaffine

(D 00 1

); possiamo quindi dire di aver trasformato la conica originaria in un’altra ad essa

affinemente equivalente, ma anche di aver effettuato un cambio di base in cui gli assi della conicasono stati ruotati fino a farli coincidere con l’asse x e l’asse y.Potevamo giungere allo stesso risultato cercando una matrice D che semplicemente diagonaliz-zasse A, senza imporre che questa appartenesse a O(2), ma in questo caso non avremmo potutoapplicare l’equivalenza affine fra la conica originaria e quella ottenuta, perché le leggi di trasfor-mazione della similitudine e dell’equivalenza affine sono diverse: per la prima vale A′ = D−1AD,mentre per la seconda vale A′ = tDAD; possiamo però cercare una classe di matrici D che dia-gonalizzi A e che contemporaneamente abbia tD = D−1 e queste matrici sono proprio quelle chestanno nel gruppo ortogonale.Dopo che A è stata diagonalizzata, i suoi assi hanno la stessa direzione dei vettori della basecanonica mentre verso e modulo sono stabiliti dagli autovettori di A: gli assi di una conica sonodunque le rette passanti per il centro della conica e di direzione gli autovettori (vedi paragrafosuccessivo).Nel caso della parabola la direzione dell’asse è data dalla direzione del nucleo (poiché rnkA = 1,dim Ker(A) = 1).

Page 56: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

54 Quadriche | cap. 7

7.3.4 Trasformazione di un’ellisse in una circonferenzaConsideriamo l’ellisse di equazione 25x2 + 5y2 + 22xy − 28x − 12y + 4 = 0 e la sua matriceassociata

M =

25 11 −1411 5 −6−14 −6 4

Per prima cosa cerchiamo il centro:

(25 1111 5

)( xy

)=(

146

)da cui C =

(1−1

)e otteniamo quindi la

matrice di traslazione

T =

1 0 10 1 −10 0 1

Effettuiamo la traslazione MT = tTMT

MT =

25 11 011 5 00 0 −4

Adesso cerchiamo gli autovettori: per prima cosa calcoliamo il polinomio minimo di A =

(25 1111 5

):

PA(x) = x2 − 30x+ 4 le cui soluzioni sono λ1 = 15 +√

221 e λ2 = 15−√

221.Calcoliamo il primo autovettore: Ker

(A − λ1 I2

)= Span

(v1 =

(10+√

22111

)); facciamo la stessa

cosa per il secondo autovettore e troviamo: v2 =(

10−√

22111

).

v1 e v2 sono le direzioni degli assi di simmetria dell’ellisse traslata nel centro; troviamo quindil’inclinazione dell’ellisse α = arctan

(11

10+√

221

).

Adesso possiamo costruire la matrice di rotazione che diagonalizzerà la conica (cioè ruoterà gliassi di simmetria fino a farli coincidere con gli assi cartesiani):

R =

cosα − sinα 0sinα cosα 0

0 0 1

Adesso non ci resta che variare la lunghezza degli assi; per prima cosa ricaviamo l’intersezionecon l’asse delle x (x0) e delle y (y0) dalla nuova equazione della conica ottenuta dopo la rotazione;poi costruiamo la matrice di dilatazione

D =

x0ρ 0 00 y0

ρ 00 0 1

dove ρ è la lunghezza del raggio della circonferenza che vogliamo ottenere.La matrice di trasformazione dell’ellisse nella circonferenza sarà quindi data da

P =(R′D′ C0 0 1

)dove R′ e D′ sono le matrici interne 2× 2 di R e D.

Page 57: Appunti di Geometria II Anno 2007 - Giorgio Busoni's Bloggiorgio.busoni.it/dispense/GeometriaII.pdf · Appunti di Geometria II Anno 2007 Marco Colò - Claudio Corti - Elia Schneider

Appendice A

Versioni

• Versione 1.0: terminata la prima stesura degli appunti il 15/10/2007.

• Versione 1.1: eliminate alcune note superflue, chiariti alcuni punti, corretti alcuni errori dibattitura il 15/10/2007

• Versione 2.0: inserita e “pareggiata” graficamente la prima parte di appunti scritta da Elia;lavoro finito il 19/10/2007

• Versione 3.0: inserita la terza parte e riunificato l’aspetto grafico il 25/10/2007

55