riassuntone giga

15
1 RIEPILOGO ALGEBRA LINEARE: La struttura (G,*) con *: G X G ->G è un GRUPPO se: 1) * è ASSOCIATIVA [(x * y) * z = x * (y * z)] 2) Esiste in G l’elemento NEUTRO [ x * e = e * x = x] 3) Ogni elemento di G è INVERTIBILE [ x * 1 x - = 1 x - * x = e] Se 4) * è anche COMMUTATIVA [ x * y = y * x] il gruppo è ABELIANO Es: ( , ) + , ( , ) + , ( , ) + , { } ( 0 , ), - { } ( 0,) - La struttura (A, +, ) è un ANELLO se: 1) (A, +) è un gruppo ABELIANO con elemento neutro indicato con 0 2) (A, ) è ASSOCIATIVO 3) Vale la PROPRIETA’ DISTRIBUTIVA DEL PRODOTTO RISPETTO ALLA SOMMA a(b+c) = ab + ac; (a+b)c = ac + ab Se 4) (A, ) è COMMUTATIVO l’anello si dice COMMUTATIVO Se 5) (A, ) è dotato di ELEMENTO NEUTRO l’anello è UNITARIO Es: ( , ,) + , ( , ,) + , ( , ,) + Il CAMPO è un ANELLO UNITARIO e COMMUTATIVO (A, +, ) con ogni elemento diverso dallo 0 INVERTIBILE Es: ( , ,) + , ( , ,) + , ( , ,) + L’insieme V è uno SPAZIO VETTORIALE su campo K => V(K) se sono definite due operazioni: +: V x V -> V e : K x V -> V tali che: 1) (V,+) è un gruppo ABELIANO 2) ( ) an v an av + = + 3) ( ) a bn an bn + = + 4) ( ) ( ) abn a bn = 5) 1 n n = , ab K e , nv V Ho: 1 2 1 2 1 2 .... 0 .... 0 t t t av av av a a a + + + = = = = = n V K = :Spazio vettoriale numerico di ordine n su campo K K[x]: Spazio vettoriale dei polinomi nell’indeterminata x su campo K 3 V : Spazio vettoriale geometrico , mn K : Spazio vettoriale delle matrici su campo K Sia V uno spazio vettoriale su campo K, siano fissati 1 .... t v v V , siano 1 .... t a a K si definisce COMBINAZIONE LINEARE dei vettori 1 .... t v v con coefficienti 1 .... t a a il vettore dato da: 1 2 1 1 .... t t av av av + + + (comb.lineare dei vettori t v rispetto ai coeff. t a )

Upload: alfio-alfini

Post on 07-Dec-2014

8 views

Category:

Documents


0 download

DESCRIPTION

Roba buona, algebra per tutti, riassunta.

TRANSCRIPT

Page 1: Riassuntone Giga

1

RIEPILOGO ALGEBRA LINEARE:

La struttura (G,*) con *: G X G ->G è un GRUPPO se: 1) * è ASSOCIATIVA [(x * y) * z = x * (y * z)] 2) Esiste in G l’elemento NEUTRO [ x * e = e * x = x] 3) Ogni elemento di G è INVERTIBILE [ x * 1x− = 1x− * x = e]

Se 4) * è anche COMMUTATIVA [ x * y = y * x] il gruppo è ABELIANO Es: ( , )+� , ( , )+� , ( , )+� , { }( 0 , ),−� � { }( 0 , )−� �

La struttura (A, +, � ) è un ANELLO se:

1) (A, +) è un gruppo ABELIANO con elemento neutro indicato con 0 2) (A, � ) è ASSOCIATIVO 3) Vale la PROPRIETA’ DISTRIBUTIVA DEL PRODOTTO RISPETTO ALLA SOMMA a(b+c) = ab + ac; (a+b)c = ac + ab

Se 4) (A, � ) è COMMUTATIVO l’anello si dice COMMUTATIVO Se 5) (A, � ) è dotato di ELEMENTO NEUTRO l’anello è UNITARIO Es: ( , , )+� � , ( , , )+� � , ( , , )+� � Il CAMPO è un ANELLO UNITARIO e COMMUTATIVO (A, +, � ) con ogni elemento diverso dallo 0 INVERTIBILE Es: ( , , )+� � , ( , , )+� � , ( , , )+� � L’insieme V è uno SPAZIO VETTORIALE su campo K => V(K) se sono definite due operazioni: +: V x V -> V e � : K x V -> V tali che: 1) (V,+) è un gruppo ABELIANO 2) ( )a n v an av+ = + 3) ( )a b n an bn+ = + 4) ( ) ( )a b n a bn=� 5) 1 n n=� ,a b K∀ ∈ e ,n v V∀ ∈ Ho: 1 21 2 1 2.... 0 .... 0tt ta v a v a v a a a+ + + = � = = = = nV K= :Spazio vettoriale numerico di ordine n su campo K K[x]: Spazio vettoriale dei polinomi nell’indeterminata x su campo K 3V : Spazio vettoriale geometrico

,m nK : Spazio vettoriale delle matrici su campo K Sia V uno spazio vettoriale su campo K, siano fissati 1.... tv v V∈ , siano 1.... ta a K∈ si definisce COMBINAZIONE LINEARE dei vettori 1.... tv v con coefficienti 1.... ta a il vettore dato da:

1 21 1 .... tta v a v a v+ + + (comb.lineare dei vettori tv rispetto ai coeff. ta )

Page 2: Riassuntone Giga

2

Un SISTEMA DI VETTORI A=[ 1.... tv v ]si dice LINEARMENTE INDIPENDENTE (o libero) se l’unica combinazione lineare di vettori di A che è uguale al vettore nullo è quella in cui tutti i coeff. sono uguali a 0. Cioè:

1 21 2 1 2.... 0 .... 0tt ta v a v a v a a a+ + + = � = = = =

Un SISTEMA DI VETTORI si dice LINEARMENTE DIPENDENTE (o legato) se non è linearmente indipendente, cioè se esiste una combinazione lineare dei vettori con coeff. a uguale al vettore nullo con coeff. non tutti nulli. PROPRIETA’:

1) Se un sistema di vettori contiene il vettore nullo allora esso è linearmente DIPENDENTE. 2) Se un sistema di vettori contiene due VETTORI PROPORZIONALI allora esso è lin. DIP. 3) Ogni sistema di vettori contenente un sist. lin. DIP. è esso stesso lin. DIP. 4) Ogni sistema di vettori contenente un sist. lin. IND. è esso stesso lin. IND.

Sia V uno spazio vettoriale su un campo K e sia U V⊆ con 0U ≠ , U si dice SOTTOSPAZIO VETTORIALE di V se: 1) , ' 'u u U u u U∈ � + ∈ ( :UxU U+ → ) 2) ,k R u U ku U∈ ∈ � ∈ ( : KxU U→� ) Sia V uno spazio vettoriale su campo K e sia A un sistema di vettori di V, si definisce COPERTURA LINEARE di A l’insieme L(A) formato dai vettori che sei possono esprimere come combinazione lineare dei vettori di A. L(A) sarà il SOTTOSPAZIO VETTORIALE GENERATO da A. A sarà il SISTEMA DI GENERATORI di L(A). PROPRIETA’: 1) ( )A L A⊆ ke è il più piccolo sottospazio vettoriale contenente A. (Qualsiasi sottospazio di A lo contiene) 2) ( ) ( )A B L A L B⊆ � ⊆ 3) Se A è un sottospazio vettoriale L(A) = A Sia V uno spazio vettoriale su campo K, un SISTEMA DI GENERATORI di V è un sistema di vettori A tale che L(A) = V. Uno spazio vettoriale si dice FINITAMENTE GENERATO se possiede un sistema finito di generatori.

PROPRIETA’:

1) Sia V uno spazio vettoriale su un campo K, ogni sistema di vettori contenente un sistema di generatori di V è un sistema di generatori di V.

2) Sia S=[ 1,..., tv v ] un sistema di generatori di uno spazio vettoriale V. Se esiste un vettore

1v S∈ che è combinazione lineare dei rimanenti vettori allora 1{ }S v− è ancora un sistema di generatori di V.

Una BASE di uno spazio vettoriale V è un sistema lin.ind. di gen. di V.

Page 3: Riassuntone Giga

3

LEMMA DI STEINITZ Sia V uno spazio vettoriale finitamente generato e siano 1[ ,..., ]nA v v= un sist. Di gen di V e

1[ ,..., ]mB u u= un sist. Lin. Ind di vettori di V, allora m n≤ .

Tutte le basi di uno spazio vettoriale hanno la stessa cardinalità. La dimensione di uno spazio vettoriale V coincide con il massimo numero di vettori lin. Ind. di V. Cioè: dim V = n Sia V uno spazio vett. Fin. Gen, { / , }u w V u U w W+ ∈ ∈ ∈ {0}V ≠ , ogni sistema lin. Ind. di vettori di V è contenuto in una base di questo spazio vettoriale. Sia V uno spazio vett. Finit. Gen. su un campo K e siano U,W sottospazi di V, se dim dimU W U W⊆ � ≤ Sia V uno spazio vett. Finit. Gen. su un campo K e siano U,W sottospazi di V, se U W⊆ e dim dimU W U K= � = Sia V uno spazio vett. Su un campo K e siano U,W sottospazi di V. Si definisce SOMMA di U e W l’insieme dei vettori di V che si possono esprimere come somma di un vettore di U e di un vettore di W: U + W = { / , }u w V u U w W+ ∈ ∈ ∈ PROPRIETA’:

1) U + W è un sottospazio vett. Di V 2) Se ( ) ( ) {0}L A L B∩ = U WalloraU W U W∪ ∪ ⊆ + 3) ( )L U W U W+ = +

TEOREMA DEL COMPLETAMENTO DI UNA BASE

Sia V uno spazio vettoriale di dimensione n e sia A=[ 1,..., pv v ] un sist. Lin. Ind. (cioè p n≤ ), sia B

una base di V, allora esiste un sistema di vettori 'B B⊆ tale che 'A B∪ è una base di V. Inoltre ( ) ( ) {0}L A L B∩ = Siano U,W due sottospazi vett. Di V. La SOMMA U + W si dice DIRETTA (e i sottospazi U e W si dicono SOMMANDI DIRETTI) se ogni vettore della somma U + W si esprime in unico modo come somma di un vettore di U e di un vettore di W.

CRITERIO PER VERIFICARE SE 2 SOTTOSPAZI SONO SOMMANDI DIRETTI Siano U, W sottospazi vettoriali di uno spazio V La somma U + W è diretta {0}U W⇔ ∩ = La somma diretta si denota con il simbolo U W⊕ Siano U e W sottospazi vett di V Se la somma U + W è diretta allora l’unione di una base di U e di una base di W è una base di U W⊕ .

RELAZIONE DI GRASSMANN dim( ) dim( ) dim dimU W U W U W+ + ∩ = +

Page 4: Riassuntone Giga

4

COMPLEMENTO DI UN SOTTOSPAZIO Sia U un sottospazio vett. Di V Si dice COMPLEMENTO DIRETTO di U ogni sottospazio W di V tale che V U W= ⊕ Il PRODOTTO RIGHE X COLONNE ([A]x[B]) di due matrici A e B è definito

# (numero)⇔ di elementi di ogni riga di A = # (numero) di elementi di ogni colonna di B ⇔ # colonne di A = # righe di B E ricordo che: [A]x[B] ≠ [B]x[A] Quindi ,m nA K∈ e ,n pB K∈ ,m pA B C K� = ∈� e gli elem c C∈ saranno del tipo ijc = (riga i-esima di A) x (colonna j-esima di B) Quindi ho: [A]x[B]=[C] significa:

1 1 2 2 ....ij i j i j in njc a b a b a b= + + + , , ,: m n n p m pK xK K→� che è una applicazione

( )nM K = {matrici di tipo n x n su K} = ,n nK = MATRICI QUADRATE di ordine n su K

: ( ) ( ) ( )n n nM K xM K M K→� OPERAZIONE (BINARIA E INTERNA)

: ( ) ( ) ( )n n nM K M K M K+ + → OPERAZIONE (BINARIA E INTERNA) La struttura ( ( )nM K , +, � ) è quindi un anello

La MATRICE IDENTICA I di ordine n è la matrice avente la DIAGONALE PRINCIPALE formata da tutti 1 e il resto degli elementi = 0. E’ l’elemento neutro della matrice ,n nK rispetto al � . Sia A ( )nM K∈ A si dice INVERTIBILE se esiste una matrice A’ ( )nM K∈ tale che A �A’=A’ �A= nI

A’ si dice inversa di A e si denota con il simbolo 1A− . Le matrici INVERTIBILI sono gli ELEMENTI INVERTIBILI del campo ( )nM K

PROPRIETA’: 1) Sia A ( )nM K∈ se A è invertibile 1A−� è invertibile e inoltre 1 1( )A− − =A

2) Siano A,B ( )nM K∈ , se A e B sono invertibili A B� � è invertibile e 1 1 1( )A B B A− − −=� �

GL(n,k) è il GRUPPO LINEARE di ordine n su campo k così definito:

GL(n,k) = { ( )nA M k∈ / A è invertibile} e : ( , ) ( , ) ( , )GL n k xGL n k GL n k→� La struttura (GL(n,k), � ) è un gruppo ( non abeliano) poiché: 1) � è associativa 2) ∃ l’elem. Neutro n n nI I I= ( , )nI GL n k→ ∈ 3) Ogni elem di GL(n,k) è invertibile Si dice PERMUTAZIONE su un insieme nI una applicazione INVERTIBILE (sia iniettiva che suriettiva) di nI in sé.

: n nI Iα → (invertibile)

Page 5: Riassuntone Giga

5

ES: Se 4 {1,2,3,4}I = ho 1 2 3 42 3 1 4

α � �= � �� �

dove α è una possibile permutazione di nI .

E’ cioè una disposizione diversa di tutti gli n elementi di un insieme. Tutte le disposizioni di n in n: n!

Una permutazione α dell’insieme nI presenta una INVERSIONE sulla coppia (i,j) dove , ni j I∈ se i < j e a(i) > a(j).

Nell’esempio precedente le uniche inversioni sono (1,3) e (2,3) Una permutazione : n nI Iα → si dice (di CLASSE) PARI o DISPARI a seconda che possiede un numero pari o dispari di inversioni rispetto alla disposizione di partenza.

( )µ α = num di inversioni delle permutaz di α .

SEGNO DI UNA PERMUTAZIONE: sgn( )α = 1 se α è permutaz di classe pari sgn( )α = - 1 se α è permutaz di classe dispari In generale ( )sgn( ) ( 1)µ αα = − dove se ( )µ α è pari allora +1 altrimenti -1.

METODO GRAFICO X DET IL NUM DI INVERSIONI DI UNA PERMUTAZ.

Si congiunge ogni elemento della 1° riga con l’elemento della 2° riga uguale a se stesso. Il numero di intersezioni rappresenta il numero di inversioni.

Data una matrice quadrata nK si definisce TERMINE ESTRATTO il prodotto di n elementi di a che a 2 a 2 non appartengono né alla stessa riga né alla stessa colonna. Cioè: nI 1 1 2 2 ... n na a aα α α� � � dove α è una delle possibili permutazioni dell’insieme nI degli indici.

Sia ( )nA M k∈ , si definisce DETERMINANTE di A l’elemento di k così definito:

|A| = det A = 1 1 2 2sgn( ) ...n

n nS

a a aα α αα

α∈� � � � �

Cioè il Determinante è la sommatoria di tutti i termini estratti presi con il proprio segno. Ma in generale 1) per le Matrici quadrate di ordine 2: |A| = det A = (prodotto diag.Principale) – (Prodotto diagonale “inversa”) 2) per le matrici quadrate di ordine 3:

REGOLA DI SARRUS:

A = 11 12 13

21 22 23

31 32 33

a a a

a a a

a a a

� �� �� � �

|A| = {(Prodotto diag principale: 11 22 33a a a ) + (Prodotto triangolo: 12 23 31a a a ) + (Prodotto triangolo: 13 32 21a a a ) } - {(Prodotto diag. Inversa: 13 22 31a a a ) + (Prodotto Triangolo:

12 21 33a a a ) + (Prodotto triangolo: 11 32 23a a a )}

Page 6: Riassuntone Giga

6

Sia ( )nA M k∈ , si definisce COMPLEMENTO ALGEBRICO dell’elemento ija , e si denota con

ijΓ , il determinante della matrice ottenuta da A eliminando la riga i-esima e la colonna j-esima

preso con il segno ( 1)i j+− cioè 1

1i j pari

i j dispari

+ ⇔ + =��− ⇔ + =�

TEOREMA DI LAPLACE

Sia ( )nA M k∈ , il determinante di A coincide con la somma dei prodotti degli elementi di una qualunque riga (o colonna) di A per i corrispondenti complementi algebrici. Cioè:

|A| = 1 1 2 2 ...i i i i in ina a aΓ + Γ + + Γ = 1

n

ij iji

a=

Γ�

II TEOREMA DI LAPLACE

Il prodotto degli elementi di una riga (o di una colonna) per i complementi algebrici degli elementi di un’altra riga (o colonna) è = 0

Cioè: 1 1 1... 0i j n jna aΓ + + Γ =� con i j≠

Sia ,m nA K∈ , si definisce TRASPOSTA di A e si denota con t A , la matrice di tipo n x m ottenuta da A scambiando le righe con le colonne. In generale Se ija A∈ allora t

jia A∈

ESEMPIO: se 1

1 2 1 12 1 0 30 3 2 1

1 2 12 1 00 3 2

( ) 2

A

M

− � �= � �� �− − �

− � �= � �� �− �

� =

1 21 0

2 3A

� �= −� �� � �

allora 1 1 22 0 3

t A−

= � � �

PROPRIETA’ DEI DETERMINANTI: 1) Sia ( )nA M K∈ se A possiede una riga (o una colonna) nulla allora |A| = 0.

Infatti x teorema di Laplace ho |A| = 1 1 2 2 ...i i i i in ina a aΓ + Γ + + Γ con a = 0 2) Sia ( )nA M K∈ , se A’ è ottenuta da A scambiando 2 righe (o 2 colonne) allora

|A’| = |A| (se numero scambi è pari) oppure |A’| = -|A| (se numero scambi èdispari) 3) Sia ( )nA M K∈ , se A possiede 2 righe (o 2 colonne) uguali allora |A| = 0 4) Sia ( )nA M K∈ , se A possiede 2 righe (o 2 colonne) proporzionali allora |A| = 0 5) Sia ( )nA M K∈ , se le righe (o le colonne) di A sono linearmente dipendenti (cioè una riga o

colonna è comb. Lineare delle altre) allora |A| = 0 6) Se ( )nA M K∈ � | t A | = |A| 7) Se A’ è ottenuta da A sommando a una sua riga (o colonna) una comb. Lin. Delle altre

colonne (o righe) � |A’| = |A| 8) Se la Matrice è TRIANGOLARE O DIAGONALE � |A| = Prodotto diag principale

Page 7: Riassuntone Giga

7

9) TEOREMA DI BINET: Siano A, B ( )nM K∈ � |A �B|=|A| � |B|

Sia ( )nA M K∈ , si definisce AGGIUNTA DI A, e si denota con *A , la trasposta della matrice dei complementi algebrici di A.

ESEMPIO:

Se1 1 00 2 31 0 0

A

− � �= � �� � �

ALLORA

*

2 3 0 3 0 20 0 1 0 1 0

1 0 1 0 1 10 0 1 0 1 0

1 0 1 0 1 12 3 0 3 0 2

TA

−� �

� �� �− −� �= − − −� �� �− −� �− −� � �

0 3 2 0 0 30 0 1 3 0 33 3 2 2 1 2

T

− − � � � �= − = −� � � �� � � �− − − − � �

Sia ( )nA M K∈ allora

* *n|A| IAA A A= = � (dove nI è l’elemento neutro di A)

Sia ( )nA M K∈ ,

A è invertibile |A| 0⇔ ≠ E l’inversa di A sarà:

( ') ( '| ')A A Bρ ρ= 1 *1A A

A− = �

Cioè: 1 1 * *1| |

| |A A A A

A− −= =� �

Quindi l’inversa di una matrice è uguale all’aggiunta di A fratto il determinante di A. Sia ( )nA M K∈ , si definisce MINORE di ordine k estratto da A, una matrice quadrata di ordine k ottenuta da A eliminando un certo numero di n – k righe e n – k colonne (con min{ , }k m n≤ )

Sia ( )nA M K∈ si definisce RANGO di A, e si denota con ( )Aρ , l’ordine massimo di un minore estratto da A con determinante 0≠

TEOREMA DEGLI ORLATI: Sia ,m nA K∈ , A ha rango ρ se, e solo se, esiste un minore M di ordine ρ con determinante 0≠ e ogni minore di ordine ρ + 1 contenente M ha determinante = 0. Inoltre le righe di A contenenti le righe di M sono un sistema massimo di righe lin. Ind.

ESEMPIO:

Page 8: Riassuntone Giga

8

Se 1 2 1 12 1 0 30 3 2 1

A

− � �= � �� �− − �

ho M minore di ordine 2 = 1 22 1 � � �

Ma M è contenuto solo in 2 minori di ordine 3:

1

1 2 12 1 00 3 2

M

− � �= � �� �− �

e 2

1 2 12 1 30 3 1

M � �= � �� �− �

Quindi devo calcolare e verificare solo due determinanti: | 1M | e | 2M | Ma | 1M | = 0 e | 2M | = 0 ( ) 2Aρ� =

Una Matrice genera 2 sottospazi (1 delle righe e 1 delle colonne):

1 2( , ,... ) nmL R R R K⊆ e 1 2( , ,... ) n

mL C C C K⊆

TEOREMA DI KRONECKER

Sia ,m nA K∈ , il RANGO di A coincide con la DIMENSIONE del SOTTOSPAZIO generato dalle righe di A e con la dimensione del sottospazio generato dalle colonne di A.

1 2 1 2( ) dim ( , ,... ) dim ( , ,... )n nm mA L R R R K L C C C Kρ = ⊆ = ⊆

Dim L(R) = n; Dim L(C) = n; ( )Aρ = max num righe (o colonne) lin.ind. Una sequenza S di vettori k (k <= n) di uno spazio vettoriale ( )nV k di dimensione n è LEGATA se, e soltanto se, tutti i minori di ordine k estraibile dalla matrice che ha nelle righe (o nelle colonne) le componenti dei vettori di S in una base B di V(K) hanno determinante nullo. (Cioè se tutti i vettori che compongono la matrice sono tutti lin dip) Una sequenza S di vettori k (k <= n) di uno spazio vettoriale ( )nV k di dimensione n è LIBERA se, e soltanto se, nella matrice che contiene questi vettori nelle proprie righe (colonne) esiste un minore di ordine k con determinante non nullo. (Cioè ci sono almeno 2 righe lin ind.) Sia ( )nA M K∈ sono equivalenti queste condizioni:

1) A è invertibile 2) 0A ≠ 3) ( )A nρ = cioè il rango è il max di A 4) Le righe e le colonne di A sono lin. Ind.

I vettori 1 2, ,..., ntv v v K∈ sono lin.Ind. ⇔ la matrice

1

.

t

v

A

v

� �= � �� � �

che li ammette come righe ha rango t

Un’eq si dice LINEARE se grd(p(x)) = 1, cioè exp x = 1 (Cioè è un’eq di primo grado).

Page 9: Riassuntone Giga

9

Un SISTEMA LINEARE su un campo K è un insieme di m equazioni lineari in n incognite a coefficiente in K.

11 1 12 2 1 1

21 1 22 2 2 2

1 1 2 2

...

...

...

n n

n n

m m mn n n

a x a x a x b

a x a x a x b

a x a x a x b

+ + + =� �� �+ + + =� �� �� �� �+ + + =� �

E possiamo definire da questo sistema lineare due matrici:

la MATRICE INCOMPLETA

A = 11 1

1

n

m mn

a a

a a

� �� �� � �

� � �

E la MATRICE COMPLETA

11 1 1

1

|B=n

m mn n

a a b

A

a a b

� �� �� � �

� � � �

Più in generale possiamo esprimere il sistema lineare di sopra come:

A X B=� ;

11 1

1

n

m mn

a a

a a

� �� �� � �

� � �

1 1

n n

x b

x b

� � � �=� � � �� � � � � �

� � �

Una SOLUZIONE di un sistema lineare è una n-pla ordinata ( 1 2, ,... nα α α ) nK∈ che soddisfa ciascuna equazione del sistema ovvero

11 1 12 2 1 1

21 1 22 2 2 2

1 1 2 2

...

...

...

n n

n n

m m mn n n

a a a b

a a a b

a a a b

α α αα α α

α α α

+ + + =� �� �+ + + =� �� �� �� �+ + + =� �

Un sistema lineare si dice COMPATIBILE se possiede almeno una soluzione, si dice INCOMPATIBILE se è privo di soluzione. Un Sistema lineare AX = B è compatibile se, e solo se, il vettore B è combinazione lineare della colonna della matrice incompleta di A e cioè ( ) ( | )A A Bρ ρ= Sia Y = AX una app.lin. da nK a mK . I vettori colonna rφ della matrice A costituiscono un sistema di generatori di Im f e ( )Aρ fornisce la dim di Im f

TEOREMA DI ROUCHE – CAPELLI Un sistema lineare AX = B è compatibile se, e solo se, le matrici completa e incompleta di A hanno lo stesso RANGO, ovvero

( ) ( | )A A Bρ ρ=

Page 10: Riassuntone Giga

10

TEOREMA DI CRAMER ≠ Sia AX = B un sistema lineare di n equazioni in n incognite. Se 0A ≠ allora il sistema è compatibile e ammette un’unica soluzione. Per la REGOLA DI CRAMER ved. Pg 112 libro. Ricordo solo: Se A = matrice incompleta con det ≠ 0 ho:

11

| || |B

xA

= dove B1 è la matrice incompleta con al posto della colonna x1 la colonna dei t. noti.

Supponiamo sia AX = B un sistema lineare compatibile di m equazioni in n incognite e sia

( ) ( | )A A Bρ ρ= . Un SISTEMA PRINCIPALE EQUIVALENTE a quello dato è un sistema A’X=B’ ottenuto estraendo p equazioni dal sistema di modo che ( ') ( '| ')A A Bρ ρ= (Cioè se ho 5 equazioni ma il rango del sistema è 2 allora 3 eq sono proporzionali) Ogni sistema principale equivalente ammette le stesse soluzioni del sistema dato. Un sistema lineare si dice OMOGENEO se i termini noti sono tutti uguali a zero

11 1 12 2 1

21 1 22 2 2

1 1 2 2

... 0

... 0

... 0

n n

n n

m m mn n

a x a x a x

a x a x a x

a x a x a x

+ + + =� �� �+ + + =� �� �� �� �+ + + =� �

- Ogni sistema omogeneo è compatibile perché possiede la soluzione nulla (0,0,…,0) detta anche SOLUZIONE BANALE. - Sia AX = 0 un sistema omogeneo di m equazioni in n incognite su campo k. L’insieme delle soluzioni di tale sistema è un sottospazio vettoriale di nK di dimensione ( )n Aρ− . - Un sistema omogeneo AX = 0 di m eq in n incognite ammette soluzioni non banali ( )A nρ⇔ < . - Un sistema omogeneo AX = 0 di n eq in n incognite ammette soluzioni non banali 0A⇔ = . - Sia AX = B un sistema lineare compatibile, è possibile associare ad esso il sistema omogeneo AX = 0 (con tutti i termini noti = 0) - Sia AX = B un sistema lineare compatibile, l’insieme delle soluzioni di tale sistema è dato da

I = { 0 0/x z x+ soluz. Particolare di AX = B e z varia tra le soluz. Di AX = 0} - Il numero delle soluzioni di un sistema compatibile coincide con il numero delle soluzioni del sistema omogeneo ad esso associato.

TEOREMA DI UNICITA’: Sia AX = B un sistema lineare compatibile di m equazioni in n incognite. Tale sistema ammette un’unica soluzione ( )A nρ⇔ = - Ogni sottospazio vettoriale di nK coincide con l’insieme delle soluzioni di un opportuno sistema lineare omogeneo

Page 11: Riassuntone Giga

11

Siano V,W spazi vettoriali su campo K, una APPLICAZIONE :f v w→ si dice LINEARE (OMOMORFISMO) se

1) ( ) ( ) ( )f u w f u f w+ = + (immagine somma = somma immagini) 2) ( ) ( )f a u a f u=� �

Ogni applicazione lineare :f v w→ trasforma il vettore nullo di V nel vettore nullo di W:

(0 ) 0v wf = APPLICAZIONE NULLA: 0 0: / : 0f v w f v V W→ ∈ → ∈ (è lineare) APPLICAZIONE IDENTICA: :vid v V v V∈ → ∈ (è lineare) Ogni matrice determina un’applicazione lineare ,m nA K∈ Sia :f v w→ un’applicazione lineare, si definisce NUCLEO (Kernel) di f e si denota con kerf il sottoinsieme di V:

1 2( , ,..., )nA c c c= Ker f è un sottospazio vettoriale di v. ker { / ( ) 0 }wf v V f v= ∈ =

Sia :f v w→ un’applicazione lineare

f è iniettiva ker {0 }vf⇔ =

PROPRIETA’: 1) Ogni applicazione lineare :f v w→ trasforma sistemi lin. Dip di vettori di v in sistemi lin.

Dip. Di vettori di W. 2) Sia :f v w→ un’applicazione lineare: f è iniettiva ⇔ f trasforma sistemi lin. Ind di V in

sist lin. Ind di W. 3) Sia :f v w→ un’applicazione lineare: f è suriettiva ⇔ f trasforma sist. Di gen di V in sist

di gen di W. Un ISOMORFISMO tra gli spazi vettoriali di V e W è un’applicazione lineare f invertibile di V in W Se :f v w→ è app.lineare invertibile V e W si dicono ISOMORFI. Se due spazi vettoriali hanno la stessa dimensione (Dim V = dim W = n) sono ISOMORFI. Sia :f v w→ un’applicazione lineare: f è un isomorfismo ⇔ f trasforma basi di V in basi di W cioè detta 1 2( , ,..., )nB x x x una base di V allora la sequenza 1 2( ( ), ( ),...., ( ))nf x f x f x è una base di W.

:r v Vφ ∈ è 1 2( , ... ) mna a a K∈ dove 1 2( , ... )na a a sono i componenti di v in R.

rφ è detto ISOMORFISMO COORDINATO associato al riferimento R.

Riferimento: 1 2( , ... )ne e e E= e 1 1 2 2 .... tn n rv a e a e a e Eφ= + + + = 1 1 2 2: .... t

r n n rv a e a e a e Eφ φ= + + + =

Page 12: Riassuntone Giga

12

Un RIFERIMENTO di uno spazio vettoriale V è una sua base ordinata Ogni spazio vettoriale V di dimensione n su un campo k è ISOMORFO allo spazio vettoriale numerico nK

TEOREMA FONDAMENTALE SULLE APPLICAZIONI LINEARI Sia V uno spazio vettoriale di dimensione n e sia W uno spazio vettoriale, sia R = [ 1 2, ,..., ne e e ] un

riferimento di V e sia S = [ 1 2, ,..., nw w w ] un sistema di n vettori non necessariamente distinti. Allora

ESISTE UN’UNICA applicazione lineare :f v w→ tale che

1 1( )f e w= , 2 2( )f e w= ,…, ( )n nf e w=

PROPRIETA’:

1) Siano :f v w→ e :g w u→ applicazioni lineari, allora l’applicazione composta :g f V U→� è lineare

2) Siano :f v w→ un’applicazione lineare invertibile (ovvero un isomorfismo), allora 1 :f w v− → è lineare (e quindi è un’isomorfismo)

3) Siano V e W spazi vett. Su un campo K V e W sono isomorfi ⇔ dim V = dim W

IMMAGINE DI APPLICAZIONE LINEARE

Sia :f v w→ un’applicazione lineare Im { }f w W= ∈ e ( )f v W= Sia :f v w→ un’applicazione lineare e sia 1{ ,..., }nB e e= una base di V, allora il sistema

1[ ( ),..., ( )]nf e f e è un sist.di gen di Imf

TEOREMA DELLE DIMENSIONI

Sia :f v w→ un’applicazione lineare, V finitamente generato. Allora: dim Kerf + dim Imf = dim V ( EQ. UNIDIMENSIONALE)

Sia AX=B un sist.lineare omogeneo e sia { 0}S SolAX= = allora S è un sottospazio vettoriale di nK e dim ( )S n Aρ= − allora

dim ( )S n Aρ= −

MATRICE APPLICATA AD UNA APPLICAZIONE LINEARE Siano V e W spazi vettoriali su campo K, dim V = n, dim W = m, sia :f v w→ un app.lineare e sia R= ( 1 2, ,..., ne e e ) un riferimento di V e sia R’=( 1 2', ',..., 'ne e e ) un riferimento di W allora:

11 '( ( ))nRc K f e∈ = ∅ , 22 '( ( ))n

Rc K f e∈ = ∅ , …, '( ( ))nnn Rc K f e∈ = ∅ .

Sia 1 2( , ,..., )nA c c c= la matrice associata a f rispetto a R e R’: PROPRIETA’:

1) Sia v V∈ , posto ( )RX v= ∅ e '( )RY v= ∅ allora Y = AX ] Rapp. Matriciale di f

2) Ker f è rappresentato dal sistema omogeneo AX = 0 e Kerf V⊆

3) dim Im ( )f Aρ=

Page 13: Riassuntone Giga

13

Siano , ' ( )nA A M K∈

A e A’ si dicono SIMILI se esiste una matrice ( )nP M K∈ invertibile, tale che 1'A P AP−= . La similitudine tra matrici è una RELAZIONE DI EQUIVALENZA Cioè: è RIFLESSIVA: 0ija i j= ∀ ≠ A A

è SIMMETRICA: A B B A� è TRANSITIVA: A BeB C A C�

ENDOMORFISMI:

Sia V uno spazio vettoriale su campo K, un ENDOMORFISMO di V è un’applicazione lineare di V in sé: :f V V→ (in cui il dominio coincide col codominio) Per associare la matrice ad un endomorfismo posso scegliere un solo riferimento e la matrice che ne risulterà sarà quadrata Sia V uno spazio vettoriale su un campo K, sia :f V V→ un endomorfismo, siano R ed R’ due riferimenti di V e siano A e A’ le matrici associate a f rispetto ad R e R’. Allora A e A’ sono simili ------------------------------------------------------------------------------------------------------------------------ Sia ( )nA M K∈ , A è detta MATRICE DIAGONALE se gli elementi non appartenenti alla

diagonale principale sono tutti uguali a zero. Cioè 0ija i j= ∀ ≠ cioè:

1

2

0 00 0

0 0 n

d

dA

d

� �� �=� �� � �

� � � �

Due matrici sono SIMILI se esiste una matrice P invertibile tale che A’= 1P AP− Se in un endomorfismo prendo due riferimenti lasciando invariata la funzione le due matrici associate A e A’ sono simili. Sia V uno spazio vettoriale su un campo K. Un endomorfismo :f V V→ si dice DIAGONALIZZABILE se esiste un riferimento R di V tale che la matrice associata a f rispetto a R è una matrice diagonale. Sia V uno spazio vettoriale su un campo K, sia :f V V→ un endomorfismo. Un vettore v V∈ non nullo si dice AUTOVETTORE di f se esiste un elemento k K∈ tale che

( )f v kv= L’elemento k K∈ è detto AUTOVALORE di f associato a v e l’autovalore corrispondente a un autovettore v è unico. Un autovalore si dice REGOLARE se molteplicità algebrica coincide con molteplicità geometrica.

Page 14: Riassuntone Giga

14

Fissato un autovalore a questo possiamo associare ∞ vettori: se k K∈ è un autovalore di f allora { / ( ) }kV v V f v kv= ∈ = è cioè l’insieme di f relativi all’autovettore k. Se k K∈ è un autovalore di f, allora detto kV l'insieme degli autovettori associati a k si ha che: kV è un sottospazio vett. Di V diverso da {0} e kV è detto AUTOSPAZIO di f corrispondente all’autovalore k. Un endomorfismo :f V V→ è diagonalizzabile se e solo se V possiede una base di autovettori di f. Sia V uno spazio vett su campo K, sia :f V V→ un endomorfismo, sia R un riferimento di V e sia A la matrice associata ad f rispetto ad R. Sia k K∈ un autovalore di f, allora l’autospazio kV (ricavato per l’autovalore k) è rappresentato dagli autovettori soluzione del sistema omogeneo: ( ) 0nA kI X− = Calcolati gli autovettori è possibile ricavare le basi assegnando alle variabili indipendenti il valore 0 e 1 alternativamente (le basi devono essere indipendenti e il loro spazio è detto autospazio kV )

POLINOMIO CARATTERISTICO DI UN ENDOMORFISMO

Sia V uno spazio vett. Su un campo k, sia :f V V→ un endomorfismo, sia R un riferimento di V e sia A la matrice associata a f rispetto a R.

Il polinomio

11 1

21 22 2

1 2

0

( ) | |

n

na n

n n nm

a t a

a a t aP t A tI

a a a t

−−

= − =

� � � �

è detto POLINOMIO CARATTERISTICO DI f ed è di grado n. Sia V uno spazio vett su campo K, sia :f V V→ un endomorfismo. Gli autovalori di f sono tutti e soli gli zeri (radici) del polinomio caratteristico di f appartenenti al campo k. Cioè:

k K∈ è un autovalore di f ⇔ P(k) = 0

Gli autovettori dell’autovalore k coincidono con il vettore (o vettori) X dell’equazione ( ) 0nA kI X− = Due matrici simili hanno lo stesso polinomio caratteristico.

TEOREMA DI RUFFINI

Sia f(x) un polinomio su campo K, un elemento a K∈ è una radice di f(x) ⇔ f(x) è divisibile per (x-a).

F(a) = 0 ⇔ f(x) = (x-a)(g(x))

MOLTEPLICITA’ ALGEBRICA Sia f(x) un polinomio su un campo K e sia a una radice di f(x), Si definisce MOLTEPLICITA’ ALGEBRICA della radice a il massimo esponente m tale che f(x) è divisibile per ( )mx a− .

F(x) = ( )mx a− g(x)

Page 15: Riassuntone Giga

15

MOLTEPLICITA’ ALGEBRICA DI UN AUTOVALORE Sia V uno spazio vettoriale su campo K, :f V V→ un endomorfismo e sia P(t) il polinomio caratteristico di f . Sia k K∈ un autovalore di f, si definisce MOLTEPLICITA’ ALGEBRICA DELL’AUTOVALORE k la sua molteplicità come radice del polinomio caratteristico P(t). Cioè: ka è la molteplicità algebrica dell’autovalore k.

MOLTEPLICITA’ GEOMETRICA Sia V uno spazio vettoriale su campo K, :f V V→ un endomorfismo. Sia k K∈ un autovalore di f, si definisce molteplicità geometrica di k la dimensione dell’autospazio kV degli autovettori associati. Cioè: kg = dim kV Sia V uno spazio vettoriale su un campo K, :f V V→ un endomorfismo, e sia k K∈ un autovalore di f, allora si ha: 1 k kg a≤ ≤

Sia V uno spazio vettoriale su un campo K, sia :f V V→ un endomorfismo. Allora autospazi corrispondenti ad autovalori distinti di f sono sommandi diretti. Cioè:

1 2, ,..., tk k k K∈ autovalori distinti di f 1 2, ,...,k k ktV V V� sommandi diretti

CARATTERISTICHE DEL POLINOMIO CARATTERISTICO Il polinomio caratteristico p(t) possiede tutte le radici in K ⇔ la somma delle molteplicità algebriche delle radici è uguale al grado di p(t). [Se le radici sono appartenenti al campo su cui è definito lo spazio allora la somma delle radici è uguale al grado del polinomio caratteristico]

TEOREMA FONDAMENTALE SUGLI ENDOMORFISMI DIAGONALIZZABILI Sia V uno spazio vett. Di dim. N su un campo K, sia :f V V→ un endomorfismo F è diagonalizzabile ⇔ il polinomio caratteristico di f ha tutte le radici nel campo K e tutte con molteplicità algebrica == molteplicità geometrica. CASO PARTICOLARE: Se f è un endomorfismo avente n autovalori distinti allora f è diagonalizzabile

Davide Piccolo