riassuntone giga
DESCRIPTION
Roba buona, algebra per tutti, riassunta.TRANSCRIPT
![Page 1: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/1.jpg)
1
RIEPILOGO ALGEBRA LINEARE:
La struttura (G,*) con *: G X G ->G è un GRUPPO se: 1) * è ASSOCIATIVA [(x * y) * z = x * (y * z)] 2) Esiste in G l’elemento NEUTRO [ x * e = e * x = x] 3) Ogni elemento di G è INVERTIBILE [ x * 1x− = 1x− * x = e]
Se 4) * è anche COMMUTATIVA [ x * y = y * x] il gruppo è ABELIANO Es: ( , )+� , ( , )+� , ( , )+� , { }( 0 , ),−� � { }( 0 , )−� �
La struttura (A, +, � ) è un ANELLO se:
1) (A, +) è un gruppo ABELIANO con elemento neutro indicato con 0 2) (A, � ) è ASSOCIATIVO 3) Vale la PROPRIETA’ DISTRIBUTIVA DEL PRODOTTO RISPETTO ALLA SOMMA a(b+c) = ab + ac; (a+b)c = ac + ab
Se 4) (A, � ) è COMMUTATIVO l’anello si dice COMMUTATIVO Se 5) (A, � ) è dotato di ELEMENTO NEUTRO l’anello è UNITARIO Es: ( , , )+� � , ( , , )+� � , ( , , )+� � Il CAMPO è un ANELLO UNITARIO e COMMUTATIVO (A, +, � ) con ogni elemento diverso dallo 0 INVERTIBILE Es: ( , , )+� � , ( , , )+� � , ( , , )+� � L’insieme V è uno SPAZIO VETTORIALE su campo K => V(K) se sono definite due operazioni: +: V x V -> V e � : K x V -> V tali che: 1) (V,+) è un gruppo ABELIANO 2) ( )a n v an av+ = + 3) ( )a b n an bn+ = + 4) ( ) ( )a b n a bn=� 5) 1 n n=� ,a b K∀ ∈ e ,n v V∀ ∈ Ho: 1 21 2 1 2.... 0 .... 0tt ta v a v a v a a a+ + + = � = = = = nV K= :Spazio vettoriale numerico di ordine n su campo K K[x]: Spazio vettoriale dei polinomi nell’indeterminata x su campo K 3V : Spazio vettoriale geometrico
,m nK : Spazio vettoriale delle matrici su campo K Sia V uno spazio vettoriale su campo K, siano fissati 1.... tv v V∈ , siano 1.... ta a K∈ si definisce COMBINAZIONE LINEARE dei vettori 1.... tv v con coefficienti 1.... ta a il vettore dato da:
1 21 1 .... tta v a v a v+ + + (comb.lineare dei vettori tv rispetto ai coeff. ta )
![Page 2: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/2.jpg)
2
Un SISTEMA DI VETTORI A=[ 1.... tv v ]si dice LINEARMENTE INDIPENDENTE (o libero) se l’unica combinazione lineare di vettori di A che è uguale al vettore nullo è quella in cui tutti i coeff. sono uguali a 0. Cioè:
1 21 2 1 2.... 0 .... 0tt ta v a v a v a a a+ + + = � = = = =
Un SISTEMA DI VETTORI si dice LINEARMENTE DIPENDENTE (o legato) se non è linearmente indipendente, cioè se esiste una combinazione lineare dei vettori con coeff. a uguale al vettore nullo con coeff. non tutti nulli. PROPRIETA’:
1) Se un sistema di vettori contiene il vettore nullo allora esso è linearmente DIPENDENTE. 2) Se un sistema di vettori contiene due VETTORI PROPORZIONALI allora esso è lin. DIP. 3) Ogni sistema di vettori contenente un sist. lin. DIP. è esso stesso lin. DIP. 4) Ogni sistema di vettori contenente un sist. lin. IND. è esso stesso lin. IND.
Sia V uno spazio vettoriale su un campo K e sia U V⊆ con 0U ≠ , U si dice SOTTOSPAZIO VETTORIALE di V se: 1) , ' 'u u U u u U∈ � + ∈ ( :UxU U+ → ) 2) ,k R u U ku U∈ ∈ � ∈ ( : KxU U→� ) Sia V uno spazio vettoriale su campo K e sia A un sistema di vettori di V, si definisce COPERTURA LINEARE di A l’insieme L(A) formato dai vettori che sei possono esprimere come combinazione lineare dei vettori di A. L(A) sarà il SOTTOSPAZIO VETTORIALE GENERATO da A. A sarà il SISTEMA DI GENERATORI di L(A). PROPRIETA’: 1) ( )A L A⊆ ke è il più piccolo sottospazio vettoriale contenente A. (Qualsiasi sottospazio di A lo contiene) 2) ( ) ( )A B L A L B⊆ � ⊆ 3) Se A è un sottospazio vettoriale L(A) = A Sia V uno spazio vettoriale su campo K, un SISTEMA DI GENERATORI di V è un sistema di vettori A tale che L(A) = V. Uno spazio vettoriale si dice FINITAMENTE GENERATO se possiede un sistema finito di generatori.
PROPRIETA’:
1) Sia V uno spazio vettoriale su un campo K, ogni sistema di vettori contenente un sistema di generatori di V è un sistema di generatori di V.
2) Sia S=[ 1,..., tv v ] un sistema di generatori di uno spazio vettoriale V. Se esiste un vettore
1v S∈ che è combinazione lineare dei rimanenti vettori allora 1{ }S v− è ancora un sistema di generatori di V.
Una BASE di uno spazio vettoriale V è un sistema lin.ind. di gen. di V.
![Page 3: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/3.jpg)
3
LEMMA DI STEINITZ Sia V uno spazio vettoriale finitamente generato e siano 1[ ,..., ]nA v v= un sist. Di gen di V e
1[ ,..., ]mB u u= un sist. Lin. Ind di vettori di V, allora m n≤ .
Tutte le basi di uno spazio vettoriale hanno la stessa cardinalità. La dimensione di uno spazio vettoriale V coincide con il massimo numero di vettori lin. Ind. di V. Cioè: dim V = n Sia V uno spazio vett. Fin. Gen, { / , }u w V u U w W+ ∈ ∈ ∈ {0}V ≠ , ogni sistema lin. Ind. di vettori di V è contenuto in una base di questo spazio vettoriale. Sia V uno spazio vett. Finit. Gen. su un campo K e siano U,W sottospazi di V, se dim dimU W U W⊆ � ≤ Sia V uno spazio vett. Finit. Gen. su un campo K e siano U,W sottospazi di V, se U W⊆ e dim dimU W U K= � = Sia V uno spazio vett. Su un campo K e siano U,W sottospazi di V. Si definisce SOMMA di U e W l’insieme dei vettori di V che si possono esprimere come somma di un vettore di U e di un vettore di W: U + W = { / , }u w V u U w W+ ∈ ∈ ∈ PROPRIETA’:
1) U + W è un sottospazio vett. Di V 2) Se ( ) ( ) {0}L A L B∩ = U WalloraU W U W∪ ∪ ⊆ + 3) ( )L U W U W+ = +
TEOREMA DEL COMPLETAMENTO DI UNA BASE
Sia V uno spazio vettoriale di dimensione n e sia A=[ 1,..., pv v ] un sist. Lin. Ind. (cioè p n≤ ), sia B
una base di V, allora esiste un sistema di vettori 'B B⊆ tale che 'A B∪ è una base di V. Inoltre ( ) ( ) {0}L A L B∩ = Siano U,W due sottospazi vett. Di V. La SOMMA U + W si dice DIRETTA (e i sottospazi U e W si dicono SOMMANDI DIRETTI) se ogni vettore della somma U + W si esprime in unico modo come somma di un vettore di U e di un vettore di W.
CRITERIO PER VERIFICARE SE 2 SOTTOSPAZI SONO SOMMANDI DIRETTI Siano U, W sottospazi vettoriali di uno spazio V La somma U + W è diretta {0}U W⇔ ∩ = La somma diretta si denota con il simbolo U W⊕ Siano U e W sottospazi vett di V Se la somma U + W è diretta allora l’unione di una base di U e di una base di W è una base di U W⊕ .
RELAZIONE DI GRASSMANN dim( ) dim( ) dim dimU W U W U W+ + ∩ = +
![Page 4: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/4.jpg)
4
COMPLEMENTO DI UN SOTTOSPAZIO Sia U un sottospazio vett. Di V Si dice COMPLEMENTO DIRETTO di U ogni sottospazio W di V tale che V U W= ⊕ Il PRODOTTO RIGHE X COLONNE ([A]x[B]) di due matrici A e B è definito
# (numero)⇔ di elementi di ogni riga di A = # (numero) di elementi di ogni colonna di B ⇔ # colonne di A = # righe di B E ricordo che: [A]x[B] ≠ [B]x[A] Quindi ,m nA K∈ e ,n pB K∈ ,m pA B C K� = ∈� e gli elem c C∈ saranno del tipo ijc = (riga i-esima di A) x (colonna j-esima di B) Quindi ho: [A]x[B]=[C] significa:
1 1 2 2 ....ij i j i j in njc a b a b a b= + + + , , ,: m n n p m pK xK K→� che è una applicazione
( )nM K = {matrici di tipo n x n su K} = ,n nK = MATRICI QUADRATE di ordine n su K
: ( ) ( ) ( )n n nM K xM K M K→� OPERAZIONE (BINARIA E INTERNA)
: ( ) ( ) ( )n n nM K M K M K+ + → OPERAZIONE (BINARIA E INTERNA) La struttura ( ( )nM K , +, � ) è quindi un anello
La MATRICE IDENTICA I di ordine n è la matrice avente la DIAGONALE PRINCIPALE formata da tutti 1 e il resto degli elementi = 0. E’ l’elemento neutro della matrice ,n nK rispetto al � . Sia A ( )nM K∈ A si dice INVERTIBILE se esiste una matrice A’ ( )nM K∈ tale che A �A’=A’ �A= nI
A’ si dice inversa di A e si denota con il simbolo 1A− . Le matrici INVERTIBILI sono gli ELEMENTI INVERTIBILI del campo ( )nM K
PROPRIETA’: 1) Sia A ( )nM K∈ se A è invertibile 1A−� è invertibile e inoltre 1 1( )A− − =A
2) Siano A,B ( )nM K∈ , se A e B sono invertibili A B� � è invertibile e 1 1 1( )A B B A− − −=� �
GL(n,k) è il GRUPPO LINEARE di ordine n su campo k così definito:
GL(n,k) = { ( )nA M k∈ / A è invertibile} e : ( , ) ( , ) ( , )GL n k xGL n k GL n k→� La struttura (GL(n,k), � ) è un gruppo ( non abeliano) poiché: 1) � è associativa 2) ∃ l’elem. Neutro n n nI I I= ( , )nI GL n k→ ∈ 3) Ogni elem di GL(n,k) è invertibile Si dice PERMUTAZIONE su un insieme nI una applicazione INVERTIBILE (sia iniettiva che suriettiva) di nI in sé.
: n nI Iα → (invertibile)
![Page 5: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/5.jpg)
5
ES: Se 4 {1,2,3,4}I = ho 1 2 3 42 3 1 4
α � �= � �� �
dove α è una possibile permutazione di nI .
E’ cioè una disposizione diversa di tutti gli n elementi di un insieme. Tutte le disposizioni di n in n: n!
Una permutazione α dell’insieme nI presenta una INVERSIONE sulla coppia (i,j) dove , ni j I∈ se i < j e a(i) > a(j).
Nell’esempio precedente le uniche inversioni sono (1,3) e (2,3) Una permutazione : n nI Iα → si dice (di CLASSE) PARI o DISPARI a seconda che possiede un numero pari o dispari di inversioni rispetto alla disposizione di partenza.
( )µ α = num di inversioni delle permutaz di α .
SEGNO DI UNA PERMUTAZIONE: sgn( )α = 1 se α è permutaz di classe pari sgn( )α = - 1 se α è permutaz di classe dispari In generale ( )sgn( ) ( 1)µ αα = − dove se ( )µ α è pari allora +1 altrimenti -1.
METODO GRAFICO X DET IL NUM DI INVERSIONI DI UNA PERMUTAZ.
Si congiunge ogni elemento della 1° riga con l’elemento della 2° riga uguale a se stesso. Il numero di intersezioni rappresenta il numero di inversioni.
Data una matrice quadrata nK si definisce TERMINE ESTRATTO il prodotto di n elementi di a che a 2 a 2 non appartengono né alla stessa riga né alla stessa colonna. Cioè: nI 1 1 2 2 ... n na a aα α α� � � dove α è una delle possibili permutazioni dell’insieme nI degli indici.
Sia ( )nA M k∈ , si definisce DETERMINANTE di A l’elemento di k così definito:
|A| = det A = 1 1 2 2sgn( ) ...n
n nS
a a aα α αα
α∈� � � � �
Cioè il Determinante è la sommatoria di tutti i termini estratti presi con il proprio segno. Ma in generale 1) per le Matrici quadrate di ordine 2: |A| = det A = (prodotto diag.Principale) – (Prodotto diagonale “inversa”) 2) per le matrici quadrate di ordine 3:
REGOLA DI SARRUS:
A = 11 12 13
21 22 23
31 32 33
a a a
a a a
a a a
� �� �� � �
|A| = {(Prodotto diag principale: 11 22 33a a a ) + (Prodotto triangolo: 12 23 31a a a ) + (Prodotto triangolo: 13 32 21a a a ) } - {(Prodotto diag. Inversa: 13 22 31a a a ) + (Prodotto Triangolo:
12 21 33a a a ) + (Prodotto triangolo: 11 32 23a a a )}
![Page 6: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/6.jpg)
6
Sia ( )nA M k∈ , si definisce COMPLEMENTO ALGEBRICO dell’elemento ija , e si denota con
ijΓ , il determinante della matrice ottenuta da A eliminando la riga i-esima e la colonna j-esima
preso con il segno ( 1)i j+− cioè 1
1i j pari
i j dispari
+ ⇔ + =��− ⇔ + =�
TEOREMA DI LAPLACE
Sia ( )nA M k∈ , il determinante di A coincide con la somma dei prodotti degli elementi di una qualunque riga (o colonna) di A per i corrispondenti complementi algebrici. Cioè:
|A| = 1 1 2 2 ...i i i i in ina a aΓ + Γ + + Γ = 1
n
ij iji
a=
Γ�
II TEOREMA DI LAPLACE
Il prodotto degli elementi di una riga (o di una colonna) per i complementi algebrici degli elementi di un’altra riga (o colonna) è = 0
Cioè: 1 1 1... 0i j n jna aΓ + + Γ =� con i j≠
Sia ,m nA K∈ , si definisce TRASPOSTA di A e si denota con t A , la matrice di tipo n x m ottenuta da A scambiando le righe con le colonne. In generale Se ija A∈ allora t
jia A∈
ESEMPIO: se 1
1 2 1 12 1 0 30 3 2 1
1 2 12 1 00 3 2
( ) 2
A
M
Aρ
− � �= � �� �− − �
− � �= � �� �− �
� =
1 21 0
2 3A
� �= −� �� � �
allora 1 1 22 0 3
t A−
= � � �
PROPRIETA’ DEI DETERMINANTI: 1) Sia ( )nA M K∈ se A possiede una riga (o una colonna) nulla allora |A| = 0.
Infatti x teorema di Laplace ho |A| = 1 1 2 2 ...i i i i in ina a aΓ + Γ + + Γ con a = 0 2) Sia ( )nA M K∈ , se A’ è ottenuta da A scambiando 2 righe (o 2 colonne) allora
|A’| = |A| (se numero scambi è pari) oppure |A’| = -|A| (se numero scambi èdispari) 3) Sia ( )nA M K∈ , se A possiede 2 righe (o 2 colonne) uguali allora |A| = 0 4) Sia ( )nA M K∈ , se A possiede 2 righe (o 2 colonne) proporzionali allora |A| = 0 5) Sia ( )nA M K∈ , se le righe (o le colonne) di A sono linearmente dipendenti (cioè una riga o
colonna è comb. Lineare delle altre) allora |A| = 0 6) Se ( )nA M K∈ � | t A | = |A| 7) Se A’ è ottenuta da A sommando a una sua riga (o colonna) una comb. Lin. Delle altre
colonne (o righe) � |A’| = |A| 8) Se la Matrice è TRIANGOLARE O DIAGONALE � |A| = Prodotto diag principale
![Page 7: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/7.jpg)
7
9) TEOREMA DI BINET: Siano A, B ( )nM K∈ � |A �B|=|A| � |B|
Sia ( )nA M K∈ , si definisce AGGIUNTA DI A, e si denota con *A , la trasposta della matrice dei complementi algebrici di A.
ESEMPIO:
Se1 1 00 2 31 0 0
A
− � �= � �� � �
ALLORA
*
2 3 0 3 0 20 0 1 0 1 0
1 0 1 0 1 10 0 1 0 1 0
1 0 1 0 1 12 3 0 3 0 2
TA
−� �
� �� �− −� �= − − −� �� �− −� �− −� � �
0 3 2 0 0 30 0 1 3 0 33 3 2 2 1 2
T
− − � � � �= − = −� � � �� � � �− − − − � �
Sia ( )nA M K∈ allora
* *n|A| IAA A A= = � (dove nI è l’elemento neutro di A)
Sia ( )nA M K∈ ,
A è invertibile |A| 0⇔ ≠ E l’inversa di A sarà:
( ') ( '| ')A A Bρ ρ= 1 *1A A
A− = �
Cioè: 1 1 * *1| |
| |A A A A
A− −= =� �
Quindi l’inversa di una matrice è uguale all’aggiunta di A fratto il determinante di A. Sia ( )nA M K∈ , si definisce MINORE di ordine k estratto da A, una matrice quadrata di ordine k ottenuta da A eliminando un certo numero di n – k righe e n – k colonne (con min{ , }k m n≤ )
Sia ( )nA M K∈ si definisce RANGO di A, e si denota con ( )Aρ , l’ordine massimo di un minore estratto da A con determinante 0≠
TEOREMA DEGLI ORLATI: Sia ,m nA K∈ , A ha rango ρ se, e solo se, esiste un minore M di ordine ρ con determinante 0≠ e ogni minore di ordine ρ + 1 contenente M ha determinante = 0. Inoltre le righe di A contenenti le righe di M sono un sistema massimo di righe lin. Ind.
ESEMPIO:
![Page 8: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/8.jpg)
8
Se 1 2 1 12 1 0 30 3 2 1
A
− � �= � �� �− − �
ho M minore di ordine 2 = 1 22 1 � � �
Ma M è contenuto solo in 2 minori di ordine 3:
1
1 2 12 1 00 3 2
M
− � �= � �� �− �
e 2
1 2 12 1 30 3 1
M � �= � �� �− �
Quindi devo calcolare e verificare solo due determinanti: | 1M | e | 2M | Ma | 1M | = 0 e | 2M | = 0 ( ) 2Aρ� =
Una Matrice genera 2 sottospazi (1 delle righe e 1 delle colonne):
1 2( , ,... ) nmL R R R K⊆ e 1 2( , ,... ) n
mL C C C K⊆
TEOREMA DI KRONECKER
Sia ,m nA K∈ , il RANGO di A coincide con la DIMENSIONE del SOTTOSPAZIO generato dalle righe di A e con la dimensione del sottospazio generato dalle colonne di A.
1 2 1 2( ) dim ( , ,... ) dim ( , ,... )n nm mA L R R R K L C C C Kρ = ⊆ = ⊆
Dim L(R) = n; Dim L(C) = n; ( )Aρ = max num righe (o colonne) lin.ind. Una sequenza S di vettori k (k <= n) di uno spazio vettoriale ( )nV k di dimensione n è LEGATA se, e soltanto se, tutti i minori di ordine k estraibile dalla matrice che ha nelle righe (o nelle colonne) le componenti dei vettori di S in una base B di V(K) hanno determinante nullo. (Cioè se tutti i vettori che compongono la matrice sono tutti lin dip) Una sequenza S di vettori k (k <= n) di uno spazio vettoriale ( )nV k di dimensione n è LIBERA se, e soltanto se, nella matrice che contiene questi vettori nelle proprie righe (colonne) esiste un minore di ordine k con determinante non nullo. (Cioè ci sono almeno 2 righe lin ind.) Sia ( )nA M K∈ sono equivalenti queste condizioni:
1) A è invertibile 2) 0A ≠ 3) ( )A nρ = cioè il rango è il max di A 4) Le righe e le colonne di A sono lin. Ind.
I vettori 1 2, ,..., ntv v v K∈ sono lin.Ind. ⇔ la matrice
1
.
t
v
A
v
� �= � �� � �
che li ammette come righe ha rango t
Un’eq si dice LINEARE se grd(p(x)) = 1, cioè exp x = 1 (Cioè è un’eq di primo grado).
![Page 9: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/9.jpg)
9
Un SISTEMA LINEARE su un campo K è un insieme di m equazioni lineari in n incognite a coefficiente in K.
11 1 12 2 1 1
21 1 22 2 2 2
1 1 2 2
...
...
...
n n
n n
m m mn n n
a x a x a x b
a x a x a x b
a x a x a x b
+ + + =� �� �+ + + =� �� �� �� �+ + + =� �
�
E possiamo definire da questo sistema lineare due matrici:
la MATRICE INCOMPLETA
A = 11 1
1
n
m mn
a a
a a
� �� �� � �
�
� � �
�
E la MATRICE COMPLETA
11 1 1
1
|B=n
m mn n
a a b
A
a a b
� �� �� � �
�
� � � �
�
Più in generale possiamo esprimere il sistema lineare di sopra come:
A X B=� ;
11 1
1
n
m mn
a a
a a
� �� �� � �
�
� � �
�
1 1
n n
x b
x b
� � � �=� � � �� � � � � �
� � �
Una SOLUZIONE di un sistema lineare è una n-pla ordinata ( 1 2, ,... nα α α ) nK∈ che soddisfa ciascuna equazione del sistema ovvero
11 1 12 2 1 1
21 1 22 2 2 2
1 1 2 2
...
...
...
n n
n n
m m mn n n
a a a b
a a a b
a a a b
α α αα α α
α α α
+ + + =� �� �+ + + =� �� �� �� �+ + + =� �
�
Un sistema lineare si dice COMPATIBILE se possiede almeno una soluzione, si dice INCOMPATIBILE se è privo di soluzione. Un Sistema lineare AX = B è compatibile se, e solo se, il vettore B è combinazione lineare della colonna della matrice incompleta di A e cioè ( ) ( | )A A Bρ ρ= Sia Y = AX una app.lin. da nK a mK . I vettori colonna rφ della matrice A costituiscono un sistema di generatori di Im f e ( )Aρ fornisce la dim di Im f
TEOREMA DI ROUCHE – CAPELLI Un sistema lineare AX = B è compatibile se, e solo se, le matrici completa e incompleta di A hanno lo stesso RANGO, ovvero
( ) ( | )A A Bρ ρ=
![Page 10: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/10.jpg)
10
TEOREMA DI CRAMER ≠ Sia AX = B un sistema lineare di n equazioni in n incognite. Se 0A ≠ allora il sistema è compatibile e ammette un’unica soluzione. Per la REGOLA DI CRAMER ved. Pg 112 libro. Ricordo solo: Se A = matrice incompleta con det ≠ 0 ho:
11
| || |B
xA
= dove B1 è la matrice incompleta con al posto della colonna x1 la colonna dei t. noti.
Supponiamo sia AX = B un sistema lineare compatibile di m equazioni in n incognite e sia
( ) ( | )A A Bρ ρ= . Un SISTEMA PRINCIPALE EQUIVALENTE a quello dato è un sistema A’X=B’ ottenuto estraendo p equazioni dal sistema di modo che ( ') ( '| ')A A Bρ ρ= (Cioè se ho 5 equazioni ma il rango del sistema è 2 allora 3 eq sono proporzionali) Ogni sistema principale equivalente ammette le stesse soluzioni del sistema dato. Un sistema lineare si dice OMOGENEO se i termini noti sono tutti uguali a zero
11 1 12 2 1
21 1 22 2 2
1 1 2 2
... 0
... 0
... 0
n n
n n
m m mn n
a x a x a x
a x a x a x
a x a x a x
+ + + =� �� �+ + + =� �� �� �� �+ + + =� �
�
- Ogni sistema omogeneo è compatibile perché possiede la soluzione nulla (0,0,…,0) detta anche SOLUZIONE BANALE. - Sia AX = 0 un sistema omogeneo di m equazioni in n incognite su campo k. L’insieme delle soluzioni di tale sistema è un sottospazio vettoriale di nK di dimensione ( )n Aρ− . - Un sistema omogeneo AX = 0 di m eq in n incognite ammette soluzioni non banali ( )A nρ⇔ < . - Un sistema omogeneo AX = 0 di n eq in n incognite ammette soluzioni non banali 0A⇔ = . - Sia AX = B un sistema lineare compatibile, è possibile associare ad esso il sistema omogeneo AX = 0 (con tutti i termini noti = 0) - Sia AX = B un sistema lineare compatibile, l’insieme delle soluzioni di tale sistema è dato da
I = { 0 0/x z x+ soluz. Particolare di AX = B e z varia tra le soluz. Di AX = 0} - Il numero delle soluzioni di un sistema compatibile coincide con il numero delle soluzioni del sistema omogeneo ad esso associato.
TEOREMA DI UNICITA’: Sia AX = B un sistema lineare compatibile di m equazioni in n incognite. Tale sistema ammette un’unica soluzione ( )A nρ⇔ = - Ogni sottospazio vettoriale di nK coincide con l’insieme delle soluzioni di un opportuno sistema lineare omogeneo
![Page 11: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/11.jpg)
11
Siano V,W spazi vettoriali su campo K, una APPLICAZIONE :f v w→ si dice LINEARE (OMOMORFISMO) se
1) ( ) ( ) ( )f u w f u f w+ = + (immagine somma = somma immagini) 2) ( ) ( )f a u a f u=� �
Ogni applicazione lineare :f v w→ trasforma il vettore nullo di V nel vettore nullo di W:
(0 ) 0v wf = APPLICAZIONE NULLA: 0 0: / : 0f v w f v V W→ ∈ → ∈ (è lineare) APPLICAZIONE IDENTICA: :vid v V v V∈ → ∈ (è lineare) Ogni matrice determina un’applicazione lineare ,m nA K∈ Sia :f v w→ un’applicazione lineare, si definisce NUCLEO (Kernel) di f e si denota con kerf il sottoinsieme di V:
1 2( , ,..., )nA c c c= Ker f è un sottospazio vettoriale di v. ker { / ( ) 0 }wf v V f v= ∈ =
Sia :f v w→ un’applicazione lineare
f è iniettiva ker {0 }vf⇔ =
PROPRIETA’: 1) Ogni applicazione lineare :f v w→ trasforma sistemi lin. Dip di vettori di v in sistemi lin.
Dip. Di vettori di W. 2) Sia :f v w→ un’applicazione lineare: f è iniettiva ⇔ f trasforma sistemi lin. Ind di V in
sist lin. Ind di W. 3) Sia :f v w→ un’applicazione lineare: f è suriettiva ⇔ f trasforma sist. Di gen di V in sist
di gen di W. Un ISOMORFISMO tra gli spazi vettoriali di V e W è un’applicazione lineare f invertibile di V in W Se :f v w→ è app.lineare invertibile V e W si dicono ISOMORFI. Se due spazi vettoriali hanno la stessa dimensione (Dim V = dim W = n) sono ISOMORFI. Sia :f v w→ un’applicazione lineare: f è un isomorfismo ⇔ f trasforma basi di V in basi di W cioè detta 1 2( , ,..., )nB x x x una base di V allora la sequenza 1 2( ( ), ( ),...., ( ))nf x f x f x è una base di W.
:r v Vφ ∈ è 1 2( , ... ) mna a a K∈ dove 1 2( , ... )na a a sono i componenti di v in R.
rφ è detto ISOMORFISMO COORDINATO associato al riferimento R.
Riferimento: 1 2( , ... )ne e e E= e 1 1 2 2 .... tn n rv a e a e a e Eφ= + + + = 1 1 2 2: .... t
r n n rv a e a e a e Eφ φ= + + + =
![Page 12: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/12.jpg)
12
Un RIFERIMENTO di uno spazio vettoriale V è una sua base ordinata Ogni spazio vettoriale V di dimensione n su un campo k è ISOMORFO allo spazio vettoriale numerico nK
TEOREMA FONDAMENTALE SULLE APPLICAZIONI LINEARI Sia V uno spazio vettoriale di dimensione n e sia W uno spazio vettoriale, sia R = [ 1 2, ,..., ne e e ] un
riferimento di V e sia S = [ 1 2, ,..., nw w w ] un sistema di n vettori non necessariamente distinti. Allora
ESISTE UN’UNICA applicazione lineare :f v w→ tale che
1 1( )f e w= , 2 2( )f e w= ,…, ( )n nf e w=
PROPRIETA’:
1) Siano :f v w→ e :g w u→ applicazioni lineari, allora l’applicazione composta :g f V U→� è lineare
2) Siano :f v w→ un’applicazione lineare invertibile (ovvero un isomorfismo), allora 1 :f w v− → è lineare (e quindi è un’isomorfismo)
3) Siano V e W spazi vett. Su un campo K V e W sono isomorfi ⇔ dim V = dim W
IMMAGINE DI APPLICAZIONE LINEARE
Sia :f v w→ un’applicazione lineare Im { }f w W= ∈ e ( )f v W= Sia :f v w→ un’applicazione lineare e sia 1{ ,..., }nB e e= una base di V, allora il sistema
1[ ( ),..., ( )]nf e f e è un sist.di gen di Imf
TEOREMA DELLE DIMENSIONI
Sia :f v w→ un’applicazione lineare, V finitamente generato. Allora: dim Kerf + dim Imf = dim V ( EQ. UNIDIMENSIONALE)
Sia AX=B un sist.lineare omogeneo e sia { 0}S SolAX= = allora S è un sottospazio vettoriale di nK e dim ( )S n Aρ= − allora
dim ( )S n Aρ= −
MATRICE APPLICATA AD UNA APPLICAZIONE LINEARE Siano V e W spazi vettoriali su campo K, dim V = n, dim W = m, sia :f v w→ un app.lineare e sia R= ( 1 2, ,..., ne e e ) un riferimento di V e sia R’=( 1 2', ',..., 'ne e e ) un riferimento di W allora:
11 '( ( ))nRc K f e∈ = ∅ , 22 '( ( ))n
Rc K f e∈ = ∅ , …, '( ( ))nnn Rc K f e∈ = ∅ .
Sia 1 2( , ,..., )nA c c c= la matrice associata a f rispetto a R e R’: PROPRIETA’:
1) Sia v V∈ , posto ( )RX v= ∅ e '( )RY v= ∅ allora Y = AX ] Rapp. Matriciale di f
2) Ker f è rappresentato dal sistema omogeneo AX = 0 e Kerf V⊆
3) dim Im ( )f Aρ=
![Page 13: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/13.jpg)
13
Siano , ' ( )nA A M K∈
A e A’ si dicono SIMILI se esiste una matrice ( )nP M K∈ invertibile, tale che 1'A P AP−= . La similitudine tra matrici è una RELAZIONE DI EQUIVALENZA Cioè: è RIFLESSIVA: 0ija i j= ∀ ≠ A A
è SIMMETRICA: A B B A� è TRANSITIVA: A BeB C A C�
ENDOMORFISMI:
Sia V uno spazio vettoriale su campo K, un ENDOMORFISMO di V è un’applicazione lineare di V in sé: :f V V→ (in cui il dominio coincide col codominio) Per associare la matrice ad un endomorfismo posso scegliere un solo riferimento e la matrice che ne risulterà sarà quadrata Sia V uno spazio vettoriale su un campo K, sia :f V V→ un endomorfismo, siano R ed R’ due riferimenti di V e siano A e A’ le matrici associate a f rispetto ad R e R’. Allora A e A’ sono simili ------------------------------------------------------------------------------------------------------------------------ Sia ( )nA M K∈ , A è detta MATRICE DIAGONALE se gli elementi non appartenenti alla
diagonale principale sono tutti uguali a zero. Cioè 0ija i j= ∀ ≠ cioè:
1
2
0 00 0
0 0 n
d
dA
d
� �� �=� �� � �
�
�
� � � �
�
Due matrici sono SIMILI se esiste una matrice P invertibile tale che A’= 1P AP− Se in un endomorfismo prendo due riferimenti lasciando invariata la funzione le due matrici associate A e A’ sono simili. Sia V uno spazio vettoriale su un campo K. Un endomorfismo :f V V→ si dice DIAGONALIZZABILE se esiste un riferimento R di V tale che la matrice associata a f rispetto a R è una matrice diagonale. Sia V uno spazio vettoriale su un campo K, sia :f V V→ un endomorfismo. Un vettore v V∈ non nullo si dice AUTOVETTORE di f se esiste un elemento k K∈ tale che
( )f v kv= L’elemento k K∈ è detto AUTOVALORE di f associato a v e l’autovalore corrispondente a un autovettore v è unico. Un autovalore si dice REGOLARE se molteplicità algebrica coincide con molteplicità geometrica.
![Page 14: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/14.jpg)
14
Fissato un autovalore a questo possiamo associare ∞ vettori: se k K∈ è un autovalore di f allora { / ( ) }kV v V f v kv= ∈ = è cioè l’insieme di f relativi all’autovettore k. Se k K∈ è un autovalore di f, allora detto kV l'insieme degli autovettori associati a k si ha che: kV è un sottospazio vett. Di V diverso da {0} e kV è detto AUTOSPAZIO di f corrispondente all’autovalore k. Un endomorfismo :f V V→ è diagonalizzabile se e solo se V possiede una base di autovettori di f. Sia V uno spazio vett su campo K, sia :f V V→ un endomorfismo, sia R un riferimento di V e sia A la matrice associata ad f rispetto ad R. Sia k K∈ un autovalore di f, allora l’autospazio kV (ricavato per l’autovalore k) è rappresentato dagli autovettori soluzione del sistema omogeneo: ( ) 0nA kI X− = Calcolati gli autovettori è possibile ricavare le basi assegnando alle variabili indipendenti il valore 0 e 1 alternativamente (le basi devono essere indipendenti e il loro spazio è detto autospazio kV )
POLINOMIO CARATTERISTICO DI UN ENDOMORFISMO
Sia V uno spazio vett. Su un campo k, sia :f V V→ un endomorfismo, sia R un riferimento di V e sia A la matrice associata a f rispetto a R.
Il polinomio
11 1
21 22 2
1 2
0
( ) | |
n
na n
n n nm
a t a
a a t aP t A tI
a a a t
−−
= − =
−
�
�
� � � �
�
è detto POLINOMIO CARATTERISTICO DI f ed è di grado n. Sia V uno spazio vett su campo K, sia :f V V→ un endomorfismo. Gli autovalori di f sono tutti e soli gli zeri (radici) del polinomio caratteristico di f appartenenti al campo k. Cioè:
k K∈ è un autovalore di f ⇔ P(k) = 0
Gli autovettori dell’autovalore k coincidono con il vettore (o vettori) X dell’equazione ( ) 0nA kI X− = Due matrici simili hanno lo stesso polinomio caratteristico.
TEOREMA DI RUFFINI
Sia f(x) un polinomio su campo K, un elemento a K∈ è una radice di f(x) ⇔ f(x) è divisibile per (x-a).
F(a) = 0 ⇔ f(x) = (x-a)(g(x))
MOLTEPLICITA’ ALGEBRICA Sia f(x) un polinomio su un campo K e sia a una radice di f(x), Si definisce MOLTEPLICITA’ ALGEBRICA della radice a il massimo esponente m tale che f(x) è divisibile per ( )mx a− .
F(x) = ( )mx a− g(x)
![Page 15: Riassuntone Giga](https://reader036.vdocuments.site/reader036/viewer/2022082603/54865a46b4af9fb55d8b4c3e/html5/thumbnails/15.jpg)
15
MOLTEPLICITA’ ALGEBRICA DI UN AUTOVALORE Sia V uno spazio vettoriale su campo K, :f V V→ un endomorfismo e sia P(t) il polinomio caratteristico di f . Sia k K∈ un autovalore di f, si definisce MOLTEPLICITA’ ALGEBRICA DELL’AUTOVALORE k la sua molteplicità come radice del polinomio caratteristico P(t). Cioè: ka è la molteplicità algebrica dell’autovalore k.
MOLTEPLICITA’ GEOMETRICA Sia V uno spazio vettoriale su campo K, :f V V→ un endomorfismo. Sia k K∈ un autovalore di f, si definisce molteplicità geometrica di k la dimensione dell’autospazio kV degli autovettori associati. Cioè: kg = dim kV Sia V uno spazio vettoriale su un campo K, :f V V→ un endomorfismo, e sia k K∈ un autovalore di f, allora si ha: 1 k kg a≤ ≤
Sia V uno spazio vettoriale su un campo K, sia :f V V→ un endomorfismo. Allora autospazi corrispondenti ad autovalori distinti di f sono sommandi diretti. Cioè:
1 2, ,..., tk k k K∈ autovalori distinti di f 1 2, ,...,k k ktV V V� sommandi diretti
CARATTERISTICHE DEL POLINOMIO CARATTERISTICO Il polinomio caratteristico p(t) possiede tutte le radici in K ⇔ la somma delle molteplicità algebriche delle radici è uguale al grado di p(t). [Se le radici sono appartenenti al campo su cui è definito lo spazio allora la somma delle radici è uguale al grado del polinomio caratteristico]
TEOREMA FONDAMENTALE SUGLI ENDOMORFISMI DIAGONALIZZABILI Sia V uno spazio vett. Di dim. N su un campo K, sia :f V V→ un endomorfismo F è diagonalizzabile ⇔ il polinomio caratteristico di f ha tutte le radici nel campo K e tutte con molteplicità algebrica == molteplicità geometrica. CASO PARTICOLARE: Se f è un endomorfismo avente n autovalori distinti allora f è diagonalizzabile
Davide Piccolo