Docente
|
VIVIANI FILIPPO
(programma)
Richiami di Campi: definizioni ed esempi, sottocampi ed estensione di campi, campi algebricamente chiusi. Spazi vettoriali su un campo: definizione e prime proprieta'. Esempi di spazi vettoriali: lo spazio vettoriale standard (o numerico), gli spazi numerici infiniti, lo spazio dei polinomi, lo spazio delle funzioni da un insieme ad un campo , lo spazio delle funzioni continue reali, estensione di campi come spazi vettoriali, lo spazio delle matrici a coefficienti in un campo. Sottospazi vettoriali: definizione e caratterizzazione tramite la chiusura per addizione vettoriale e moltiplicazione scalare, l'intersezione e la somma di sottospazi. Esempi di sottospazi: il sistema lineare omogeneo associato ad una matrice e il suo insieme di soluzioni come sottospazio vettoriale. Costruzioni di spazi vettoriali: prodotto diretto e somma diretta esterna di una collezione di spazi vettoriali, famiglie indipendenti di sottospazi, la somma diretta interna di una famiglia indipendente di sottospazi, la somma diretta interna e' isomorfa alla somma diretta esterna. Combinazioni lineari di vettori: ridotte, vuote, banali, nulle. Il sottospazio generato da un sottoinsieme di uno spazio vettoriale e sue proprieta'. Sottoinsiemi generanti. Sottoinsiemi linearmente indipendenti e loro caratterizzazione tramite le combinazioni lineari. Basi e loro caratterizzazione tramite le combinazioni lineari. Esempi di basi. Proposizione: dati due insiemi I⊆S con I linearmente indipendente e S generante, allora esiste una base B tale che I⊆B⊆S (dimostrazione solo nel caso S finito). Corollario: ogni spazio vettoriale ammette una base, ogni insieme linearmente indipendente e' contenuto in una base, ogni insieme generante contiene una base. Teorema dell'invarianza della cardinalita' delle basi (con dimostrazione solo nel caso di dimensione finita): due basi di uno spazio vettoriale hanno la stessa cardinalita'. La dimensione di uno spazio vettoriale. Teorema di classificazione degli spazi vettoriali: due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione. Esercizi: come passare da un sottospazio di F^n dato in forma cartesiana ad una sua forma parametrica e come trovare una sua base, come passare da un sottospazio di F^nn dato in forma parametrica ad una sua forma cartesiana; come calcolare la somma e l'intersezione di due sottospazi di F^n; come mostrare che un sottoinsieme I⊆Fn e' linearmente indipendente e come estendere I ad una base; come mostrare che un sottoinsieme S⊆Fn e' generante e come estrarre una base. Formula di Grassmann per la dimensione della somma e dell'intersezione di due sottospazi. Applicazioni lineari (o omomorfismi lineari) tra spazi vettoriali: monomorfismi, epimorfisimi, isomorfismi, operatori lineari (o endormorfismi). Esempi: l'inclusione di un sottospazio, la proiezione di una somma diretta su un fattore, l'applicazione lineare associata ad una matrice. Proprieta' algebriche delle applicazioni lineari: Hom(V,W) e' uno spazio vettoriale, la composizione ∘:Hom(V,W)×Hom(W,U)→Hom(V,U) e' associativa e bilineare, data un'applicazione lineare biettiva l'inverso e' un'applicazione lineare biettiva. Proposizione: un'applicazione lineare e' univocamente determinata dai suoi valori su una base del dominio. Il nucleo e l' immagine di un'applicazione lineare. Ogni applicazione lineare da F^n a F^m e' della forma \Phi_A per una matrice A. Proposizione: il nucleo di Φ_A e' l'insieme delle soluzioni associate al sistema lineare omogeneo con matrice associata A, l'immagine di Φ_A e' lo span delle colonne di A. La moltiplicazione di matrici e le sue proprieta': associativita', bilinearita', elemento neutro. Il rango di una matrice: il rango per colonne coincide con il rango per righe. Proposizione (criterio di invertibilita'): una matrice quadrata e' invertibile se e solo se ha rango massimale se e solo se puo' essere traformata nella matrice identita' tramite operazioni elementari sulle righe o sulle colonne. Metodo di calcolo dell' inversa di una matrice. Il Teorema di rango-nullita'. Criterio di isomorfismo: un'applicazione lineare tra spazi vettoriali della stessa dimensione finita e' un isomorfismo se e solo se e' iniettivo se e solo se e' suriettivo. Matrici elementari per righe e per colonne. Formula per la loro inversa. Lemma: effettuare operazioni elementari sulle righe (risp. sulle colonne) equivale a moltiplicare a sinistra (risp. a destra) per matrici elementari per righe (risp. per colonne). Corollario: una matrice e' invertibile se e solo se e' prodotto di matrici elementari per righe o per colonne. Matrici equivalenti: definizione e caratterizzazione tramite operazioni elementari sulle righe e sulle colonne. Teorema di classificazione delle matrici equivalenti: due matrici sono equivalenti se e solo se hanno lo stesso rango e ogni matrice e' equivalente ad una matrice in forma canonica. La matrice associata ad un'applicazione lineare rispetto ad una base del dominio e una base del codominio. Le matrici di cambiamento base. Proprieta' delle matrici associate alle applicazioni lineari: formula di composizione e formula di cambiamento base. Corollario: il rango di un'applicazione lineare e' uguale al rango di una qualsiasi matrice che la rappresenta. Applicazioni lineari equivalenti: tre definizioni equivalenti. Teorema di classificazione delle applicazioni lineari equivalenti: due applicazioni lineari sono equivalenti se e solo se hanno lo stesso rango e ogni applicazione si puo' scrivere, rispetto ad oppurtune basi ordinate del dominio e del codominio, in forma canonica. Il quoziente di uno spazio vettoriale V rispetto ad un suo sottospazio: la proiezione canonica e la sua proprieta' universale. Il teorema di corrispondenza: esiste una biezione canonica tra i sottogruppi del quoziente e i sottogruppi dello spazio originario che contengono il sottospazio. Teorema: ogni complementare di un sottospazio e' canonicamente isomorfo al quoziente per tale sottospazio. La codimensione di un sottospazio e la sua relazione con la dimensione. I Teorema di isomorfismo e suoi Corollari: una dimostrazione alternativa del Teorema di rangi-nullita'; la fattorizzazione canonica di un'applicazione lineare come composizione di un quoziente, di un isomorfismo e di un'iniezione; i monomorfismi si scrivono canonicamente come composizione di un isomorfismo e di un'iniezione; gli epimorfismi si scrivono canonicamente come composizione di un quoziente e di un isomorfismo. II e III Teorema di isomorfismo. La trasposta di matrici e sue proprieta' algebriche rispetto alla composizione e all'inverso. I funzionali lineari e le loro proprieta'. Lo spazio vettoriale duale di uno spazio vettoriale. Esempi. L'insieme duale di una base. Teorema: data una base di V, l'insieme duale e' linearmente indipendente ed e' una base (chiamata base duale) se V ha dimensione finita. Corollario: uno spazio vettoriale ha dimensione finita se e solo se e' isomorfo al suo spazio vettoriale duale (con dimostrazione solo dell'implicazione se). Gli annullatori e loro proprieta' (con speciale enfasi al caso di dimensione finita): gli annullatori rovesciano le inclusioni e scambiano sottospazi e quozienti (e dunque scambiano dimensione e codimensione). Gli annullatori negli spazi vettoriali numerici: come calcolare l'annullatore di un sottospazio dato in forma parametrica o cartesiana. L'applicazioni lineare duale di un'applicazione lineare. Proprieta': la duale dell'inversa e' l'inversa della duale, il duale di una composizione e' la composizione dei duali. Il nucleo (risp. l'immagine) dell'applicazione duale e' l'annullatore dell'immagine (risp. del nucleo). Matrice di un'applicazione lineare duale. La similitudine di matrici e operatori lineari. Lemma: la similitudine di operatori lineari in termini di matrici associate. Il determinante di una matrice quadrata: formula di Leibniz. Esempi: matrici di ordine 2 e 3; matrici triangolari inferiori o superiori. Lemma: la trasposizione non cambia il determinante. Teorema: il determinante e' multilineare e alterno come funzione sulle righe (risp. colonne). Corollario: il comportamento del determinante rispetto all'eliminazione di Gauss-Jordan per righe (risp. colonne). Corollario: il determinante e' l'unica funzione dall'insieme della matrici quadrati di ordine n al campo che e' multilineare e alterno sulle righe (risp. colonne) e che vale 1 sulla matrice identita'. Corollario: una matrice e' invertibile se e solo se ha determinante diverso da zero. Il teorema di moltiplicativita' del determinante. Corollari: il determinante dell'inversa e' l'inversa del determinante; matrici simili hanno lo stesso determinante. Teorema (senza dimostrazione): calcolo del determinante usando sviluppo di Leibniz lungo una riga o una colonna. Corollario: coma calcolare l'inverso di una matrice in termini della matrice dei cofattori. Richiami sull'anello dei polinomi a coefficienti in un campo: la divisione di Euclide, il massimo comun divisore e il minimo comune multiplo, l'identita' di Bezout per il massimo comun divisore, la fattorizzazione unica in polinomi irriducibili, ogni ideale e' principale, polinomi irriducibili nel caso di coefficienti complessi o reali. Il polinomio caratteristico di una matrice quadrata A e di un operatore lineare: loro invarianza per similitudine, i coefficienti del polinomio caratteristico sono gli unici invarianti polinomiali per similitudine (senza dimostrazione), il termine noto e' il determinante (a meno del segno) e il termine subdirettore e' l'opposto della traccia. Polinomi applicati a operatori lineari e matrici quadrate. Il polinomio minimo di una matrice quadrata e di un operatore lineare: loro invarianza per similitudine, come calcolare il polinomio minimo di un operatore in termini di una sua matrice. Teorema (senza dimostrazione): il polinomio minimo divide il polinomio caratteristico (formula di Cayley-Hamilton) e hanno gli stessi fattori irriducibili. Esempio: polinomi caratteristico e minimo dei blocchi e multiblocchi di Jordan. Sottospazi invarianti per un operatore: applicazione quoziente e complementari invarianti. Interpretazione in termini di matrici triangolari o diagonali a blocchi. Proposizione: il comportamento dei polinomi caratteristici e minimi rispetto ai sottospazi invarianti. Esempio: la matrice compagna associata ad un polinomio p(x) ha polinomio caratteristico uguale a p(x). Decomposizione primaria di un operatore. Autovalori di un operatore lineare (o di una matrice quadrata) come radice del polinomio caratteristico. L'autospazio associato ad un autovalore di un operatore, l'autospazio generalizzato di indice k, l'autospazio generalizzato infinito. Alcuni invarianti associati ad un autovalore: la molteplicita' algebrica, la molteplicita' geometrica, la molteplicita' geometrica k-esima, la molteplicita' geometrica infinita, l'indice. Esempio: gli autospazi generalizzati di un multiblocco di Jordan. Teorema: la molteplicita' algebrica di un autovalore e' uguale alla sua molteplicita' geometrica infinita; l'indice di un autovalore e' uguale alla molteplicita' dell'autovalore come radice del polinomio minimo; il sottospazio generalizzato infinito dell'autovalore λ e' uguale al sottospazio primario associato al fattore irriducibile x−λ del polinomio minimo; l'indice e' minore o uguale alla molteplicita' algebrica. (Sotto-)spazi Φ-cicli: il sottospazio Φ-ciclico generato da un vettore e il polinomio minimo di un operatore Φ rispetto ad un vettore. Operatori ciclici. Proposizione: Φ e' ciclico se e solo se esiste una base ordinata rispetto a cui la matrice di Φ e' una matrice compagna di un polinomio p(x), che a posteriori coincide col polinomio minimo e col polinomio caratteristico di Φ. Corollario: due operatori ciclici sono simili se e solo se hanno lo stesso polinomio caratteristico (risp. minimo). Proposizione: dato un operatore ciclico Φ, esiste una biezione tra i divisori el polinomio minimo di Φ e i sottospazi Φ-invarianti. Gli operatori ciclici primari. Corollario: ogni operatore ciclico si decompone in maniera canonica come somma diretta di operatori ciclici primari. Teorema (senza dimostrazione) di decomposizione ciclica primaria: ogni operatore e' somma diretta di operatori ciclici primari che sono indecomponibili; i fattori ciclici primari sono unici a meno di similitudine. I divisori elementari di un operatore. Teorema (senza dimostrazione) di classificazione degli operatori a meno di similitudine : due operatori sono simili se e solo se hanno gli stessi divisori elementari. Corollario: il polinomio caratteristico e' il prodotto dei divisori elementari, il polinomio minimo e' il minimo comune multiplo dei divisori elementari. In particolare, il polinomio minimo divide il polinomio caratteristico e hanno gli stessi fattori irriducibili. Corollario: un operatore Φ e' ciclico se e solo se il suo polinomio minimo coincide con quello caratteristico se e solo se i suoi divisori elementari sono a due a due coprimi se e solo se i suoi sottospazi primari sono ciclici. Corollario: dato un operatore Φ, esiste una base ordinata tale rispetto alla quale la matrice di Φ e' una matrice diagonale a blocchi con blocchi dati dalle matrici compagne associate ai suoi divisori elementari. Teorema di triangolarizzabilita' : un operatore Φ e' triangolarizzabile (superioremente o inferiormente) se e solo se il suo polinomio caratteristico (o equivalentemente il suo polinomio minimo) ha solo fattori irriducibili lineari. Teorema sulla forma canonica di Jordan : dato un operatore Φ tale che il suo polinomio caratteristico ha solo fattori irriducibili lineari, allora esiste una base ordinata rispetto alla quale la matrice di Φ si scrive come matrice diagonale a multiblocchi di Jordan. Due operatori i cui polinomi caratteristici hanno solo fattori irriducibili lineari sono simili se e solo se hanno la stessa forma canonica di Jordan. Teorema di diagonalizzabilita' : un operatore Φ e' diagonalizzabile se e solo esiste una base fatta di autovettori per Φ se e solo se il polinomio caratteristico ha solo fattori lineari e per ogni autovalore la molteplicita' algebrica e quella geometrica coincidono se e solo se il suo polinomio minimo e' prodotto di fattori lineari distinti.
(testi)
S. Roman: Advanced Linear Algebra. Springer, 2008. S. H. Weintraub: A guide to Advanced Linear Algebra. Mathematical Association of America, 2011. B. N. Cooperstein: Advanced Linear Algebra. 2nd Edition. Taylor and Francis Group, 2015. E. Sernesi: Geometria 1. Bollati Boringhieri, 2000. S. Axler: Linear Algebra Done Right. 2nd Edition. Undergraduate Text in Mathematics. Springer, 1997.
|