Ingegneria per l'ambiente ed il territorio

Diario delle lezioni

A. A. 2024/2025

Tutti i risultati elencati sono stati dimostrati a lezione, se non diversamente specificato

Settimana 1

Lun 23.09 Presentazione del docente e della tutor. Presentazione della pagina web del corso. Descrizione della biblioteca, del centro di calcolo, dell’aula Ghizzoni e della fontanella. Descrizione dettaglaita della modalità di esame scritto e orale. Date degli esami. Definizione dei libri di testo adottati. Definizione dell’orario delle lezioni. Utilizzo di MATLAB e richiesta di iscrizione al corso MATLAB onramp.

Operazione su un insieme. Proprietà di un’operazione: associatività, esistenza di un elemento neutro, opposto di un elemento, commutatività. Definizione di campo.

Mar 24.09 Sistemi di equazioni lineari. Definizione di equazione lineare in \(n\) incognite a coefficienti in un campo \(\mathbb{K}\) e di una sua soluzione. Definizione di \(\mathbb{K}^n\). Studiare un’equazione lineare vuol dire stabilire se ammette almeno una soluzione (ovvero se sia risolubile) ed in questo caso descrivere tutte le soluzioni. Studio dell’equazione \(ax=b\) al variare di \(a,b\in\mathbb{K}\). Studio dell’equazione \(ax+by=c\) al variare di \(a,b,c\in\mathbb{K}\) e sua interpretazione geometrica nel caso \(\mathbb{K}=\mathbb{R}\). Equazioni lineari omogenee. Equazioni lineari ridotte. Definizione di sistema lineare e di una sua soluzione.

Mer 25.09Esempi di sistem lineari: sistemi lineari associati a circuiti elettrici, sistemi lineari associati a reti stradali o idrauliche, es. 1.2.1 del libro di Nicholson (si trova nelle note sui sistemi lineari). Definizione di matrice dei coefficienti, matrice dei termini noti e matrice completa associate ad un sistema lineare. Operazioni elementari sulle equazioni di un sistema lineare. Operazioni elementari sulla matrice completa di un sistema lineare. Le operazioni elementari danno luogo a sistemi equivalenti. Pivot di una matrice. Matrici a scala. Matrici a scala ridotta. Sistemi a scala ridotta. Comandi MATLAB \( \texttt{sym}, \backslash, \texttt{linsolve}, ==, \texttt{rref}\).

Gio 26.09 Colonne dominanti di una matrice. Il rango di una matrice è il numero delle sue colonne dominanti. Un sistema con matrice complete \((A|b)\) è risolubile se e solo \(b\) non è dominante se e solo se \(rg((A|b))=rg(A)\). Sistemi omogenei. Soluzioni-base di un sistema omogeneo. Le soluzioni di un sistema lineare si scrivono nella forma \(X_0+\langle \textrm{soluzioni-base del sistema omogeneo associato}\rangle\) dove \(X_0\) è la soluzione del sistema che si ottiene ponendo le varibili libere uguali a zero. L’insieme \(\langle \textrm{soluzioni-base del sistema omogeneo associato}\rangle\) si chiama lo “span” delle soluzioni-base del sistema omogeneo associato. Comandi MATLAB: \( \texttt{rk}, \texttt{null}\). Esercizi sui sistemi linari, anche con parametro.

Settimana 2

Lun 30.09 Definizione di spazio vettoriale su un campo \(\mathbb{K}\) o \(\mathbb{K}\)-spazio vettoriale. In una spazio vettoriale l’elemento opposto ad un elemento è unico. Definizione dell’inisieme \(\textrm{Mat}_{m\times n}(\mathbb{K})\) delle matrici \(m\times n\) a coefficienti in un campo \(\mathbb{K}\). Definizione di \(\mathbb{K}^n\). Per definizione, \(\mathbb{K}^n=\textrm{Mat}_{m\times n}(\mathbb{K})\). Definizione di somma e prodotto per scalari in \(\textrm{Mat}_{m\times n}(\mathbb{K})\). Proposizione: L’insieme \(\textrm{Mat}_{m\times n}(\mathbb{K})\) dotato della somma e del prodotto per scalari componente per componente è un \(\mathbb{K}\)-spazio vettoriale. Definizione di vettore geometrico nel piano. Vettori geometrici congruenti. La congruenza di vettori geometrici è una relazione riflessiva, simmetrica e transitiva. Fissato un punto \(O\) del piano euclideo, abbiamo denotato con \(\mathcal{V}_O^2\) l’insieme dei vettori geometrici applicati in \(O\). Abbiamo definito una somma ed un prodotto per scalari reali in \(\mathcal{V}_O^2\) e visto diversi esempi.

Mar 01.10 Teorema: \((\mathcal{V}_O^2,+,\cdot)\) è un \(\mathbb{R}\)-spazio vettoriale. Abbiamo dimostrato nel dettaglio le proprietà (SV1), (SV2), (SV3), (SV5) e (SV7); la verifica delle altre proprietà è lasciata per esercizio. Abbiamo poi svolto esercizi con i vettori geometrici.

Mer 02.10 Ulteriori esempi di \(\mathbb K\)-spazi vettoriali: l’insieme \(\mathbb{K}[x]\) dei polinomi a coefficienti in \(\mathbb K\), l’insieme \(\mathbb{K}[x]_{\leq n}\) dei polinomi a coefficienti in \(\mathbb K\) di grado minore o uguale ad \(n\), l’insieme \(\mathbb{R}^\mathbb{R}\) delle funzioni reali di variabile reale, l’insieme \(\mathbb{K}^X\) delle funzioni da un insieme \(X\) a \(\mathbb K\). Prime proprietà degli spazi vettoriali: il vettore nullo è unico, legge di cancellazione per la somma, l’opposto è unico, \(0v=0_V\), \(-v=(-1)v\), \(t0_V=0_V\), legge di annullamento del prodotto per scalari, \(v=w\) se e solo se \(v-w=0_V\).

Gio 03.10 Definizione di combinazione lineare di un numero finito di vettori. Definizione di Span. Definizione dello spazio delle colonne e dello spazio delle righe di una matrice. Lo spazio dei vettori geometrici del piano è uguale allo span di due vettori non allineati. Lo span di un vettore geometrico non-nullo applicato a O, coincide con la retta passante per i suoi estremi. \(\mathbb{K}^n\) è lo span delle matrici \(e_1,\cdots, e_n\). \(\mathbb{K}[x]_{\leq n}\) è lo span di \(1,x,x^2,\cdots,x^n\).

Settimana 3

Lun 07.10 Definizione di sottospazio vettoriale. Le soluzioni di un’equazione lineare in \(n\) variabili a coefficienti in un campo \(\mathbb{K}\) formano un sottospazio vettoriale di \(\mathbb{K}^n\) se e solo se è omogenea. Vettore-posizione di punto del piano euclideo nello spazio vettoriale \(\mathcal{V}_O^2\). Una retta di \(\mathcal{V}_O^2\) è un sottospazio vettoriale se e solo se passa per il punto \(O\). L’intersezione di sottospazi vettoriali è un sottospazio vettoriale. Le soluzioni di un sistema lineare omogeneo in \(n\) variabili a coefficienti in \(\mathbb{K}\) formano un sottospazio vettoriale di \(\mathbb{K}^n\). Sottospazio genearato \(\langle\mathcal{T}\rangle\) da un insieme \(\mathcal{T}\). Teorema: Span(\(\mathcal{T}\))=\(\langle\mathcal{T}\rangle\). Generatori standard di \(\mathbb{K}^n\) e di \(\mathbb{K}[x]_{\leq n}\).

Mar 08.10 Esercizi del tipo: descrivere un dato insieme come uno span e dedurre che tale insieme è un sottospazio vettoriale. Derivata di un polinomio. Esercizi sui sottospazi vettoriali. Lemma di scambio. Esercizi sul lemma di scambio. In particolare, abbiamo dimostrato che lo spazio vettoriale \(\mathbb{K}[x]_{\leq n}\) è generato da polinomi di gradi distinti, ovvero che \(\mathbb{K}[x]_{\leq n}=\langle p_0,p_1,\cdots, p_n\rangle\) dove \(gr(p_i)=i\) per ogni \(i=0,\cdots, n\).

Mer 09.10 Dipendenza/Indipendenza lineare. Lemma di dipendenza lineare. Lemma di indipendenza lineare. Un insieme è linearmente indipendente se e solo se è un insieme minimale di generatori per il suo span. Primi esercizi ed esempi di insiemi linearmente dipendenti/indipendenti.

Gio 10.10 I generatori standard di \(\mathbb{K}^n\) e di \(\mathbb{K}[x]_{\geq n}\) sono linearmente indipendenti. Le soluzioni-base di un sistema lineare omogeneo sono linearmente indipendenti. I sottoinsiemi di un insieme linearmente indipendente sono linearmente indipendenti. I soprainsiemi di un insieme linearmente dipendente sono linearmente dipendenti. Se un insieme contiene il vettore nullo è linearmente dipendente. Teorema fondamentale sull’indipendenza lineare. Cor: Un sottoinsieme di uno span di cardinalità maggiore al numero di generatori è linearmente dipendente. Definizione di Base di uno span. Cor: tutte le basi di uno spazio vettoriale hanno la stessa cardinalità. Definizione di dimensione di uno spazio vettoriale.

Settimana 4

Lun 14.10 Spazi vettoriali finitamente generati. Gli spazi vettoriali \(\mathbb{K}[x]\) e \(\mathbb{R}^\mathbb{R}\) non sono finitamente generati. Lo spazio vettoriale \(\mathbb{R}\) è finitamente generato come spazio vettoriale su \(\mathbb{R}\) ma non come spazio vettoriale su \(\mathbb{Q}\). Uno spazio vettoriale finitamente generato ammette una base. Algoritmo di generazione di basi. Definizione di base di un sottospazio vettoriale. Un sottospazio vettoriale di uno spazio vettoriale finitamente generato è finitamente generato e quindi ammette una base. La dimensione di un sottospazio vettoriale \(U\) di uno spazio vettoriale \(V\) è minore o uguale della dimensione di \(V\); inoltre \(\text{dim } U=\textrm{dim } V\) se e solo se \(U=V\). Costruzione di una base di \(\mathcal{V}_O^2\) e di una base di \(\mathcal{V}_O^3\) utilizzando l’algoritmo di generazione di basi. Esercizi su basi e dimensione di sottospazi vettoriali.

Mar 15.10 Un sottospazio vettoriale di uno spazio vettoriale finitamente generato è uno span. Se uno spazio vettoriale ha dimensione \(n\) e contiene un insieme di generatori di cardinalità \(n\) allora tale insieme di generatori è una base. Se uno spazio vettoriale ha dimensione \(n\) e contiene un insieme linearmente indipendente di cardinalità \(n\) allora tale insieme è una base. Coordinate di un vettore in una base. Funzione coordinate in una base. Richiami sulle funzioni iniettive, suriettive e biiettiva. La funzione coordinate in una base è biiettiva. Esempi ed esercizi. Formula chiusa per le coordinate di un vettore di \(\mathbb{R}^2\) in una base data.

Mer 16.10 Esercizi sull’indipendenza lineare. Teorema del completamento. Algoritmo di completamento in \(\mathbb{K}^n\). Definizione di somma di sottoinsiemi. La somma di sottospazi vettoriali è un sottospazio vettoriale. Formula di Grassmann. Inizio della dimostrazione della formula di Grassmann.

Gio 17.10 Dimostrazione della formula di Grassmann. Le colonne dominanti di una matrice (definite come le colonne che hanno gli stessi indici delle colonne della forma a scala ridotta che contengono i pivot) formano una base dello spazio delle colonne della matrice. Esercizi sulla formula di Grassmann.

Settimana 5

Lun 21.10 Test su sistemi lineari e spazi vettoriali. Correzione del test. Correzione dell’esercizio 8 della settimana 4.

Mar 22.10 Sottospazi affini. La retta per due punti distinti. Identificazione di punti con vettori. \(\stackrel{\rightarrow}{AB}=B-A\). Piano per tre punti non allineati. Il sottospazio di giacitura di un sottospazio affine è univocamente determinato. Dimensione di un sottospazio affine. Definizione di punti, rette, piani e iperpiani di uno spazio vettoriale. Vettori direttori di un sottospazio affine. Un sottospazio affine di \(\mathbb{K}^n\) di dimensione \(k\) è l’insieme delle soluzioni di un sistema lineare in \(n\) variabili a coefficienti in \(\mathbb{K}\) composto da \(n-k\) equazioni.

Mer 23.10 Equazioni parametriche (o forma parametrica) ed equazioni cartesiane (o forma cartesiana) di un sottospazio affine di \(\mathbb{K}^n\). Esercizi su come trovare la forma cartesiana partendo dalla parametrica e quella parametrica partendo dalla cartesiana. Forma cartesiana ridotta di un sottospazio affine di \(\mathbb{K}^n\) (=il sistema deve essere a scala ridotta). Forma parametrica ridotta di un sottospazio affine di \(\mathbb{K}^n\) (=soluzione particolare+ span delle soluzioni-base). Forma parametrica della retta per due punti. Condizione di allineamento di tre punti di \(\mathbb{R}^3\). Piano passante per tre punti non allineati. Descrizione dei sottospazi affini di \(\mathbb{R}^2\) e di \(\mathbb{R}^3\). Posizione reciproca di sottospazi affini. Condizione di parallelismo e di incidenza. Esercizio sulla posizione reciproca di un piano ed una retta di \(\mathbb{R}^3\).

Gio 24.10 Esercizi sulla posizione reciproca di sottospazi affini. Il sottospazio di giacitura delle soluzioni di un sistema lineare è composto dalle soluzione del sistema omogeneo associato. Rette sghembe. Posizione reciproca di due rette di \(\mathbb{R}^3\) in forma parametrica. Posizione reciproca di una retta e di un piano di \(\mathbb{R}^3\) in forma cartesiana.

Settimana 6

Lun 28.10 Riferimenti affini del piano euclideo. Assi del riferimento affine. Dato un riferimento affine \(\mathcal{B}\) la funzione coordinate \(F_\mathcal{B}:\mathcal{V}_O^2 \rightarrow\mathbb{R}^2\) è biiettiva e lineare, ovvero manda somma in somma e prodotto per scalari in prodotto per scalari; in particolare manda rette in rette. Rappresentazione grafica delle rette in un dato riferimento affine. Fascio di rette per un punto (in forma cartesiana ed in forma parametrica). Fascio improprio di rette (in forma cartesiana ed in forma parametrica). Fascio di rette per due rette.

Mar 29.10 Riferimenti cartesiani del piano. Riferimento cartesiano standard. Teorema di Pitagora. Esercizio: ricercare e studiare altre 3 dimostrazioni del teorema di Pitagora oltre a quella vista a lezione e che si trova nella proposizione 47 del libro I degli Elementi di Euclide (oopure negli appunti). Teorema di Carnot o del coseno. Definizione di prodotto scalare standard o prodotto puntino in \(\mathbb{R}^2\). Proprietà del prodotto puntino: è bilineare, simmetrica, non-degenere e definita positiva. Definizione di norma in \((\mathbb{R}^2,\cdot)\). Definizione di versore in \((\mathbb{R}^2,\cdot)\).

Mer 30.10 Definizione di versore in \((\mathbb{R}^2,\cdot)\). Descrizione dei versori. Circonferenza unitaria. Circonferenze. Equazioni parametriche e cartesiane delle circonferenze. Versori direttori di una retta. Definizione di coseno dell’angolo tra vettori come conseguenza del teorema di Carnot. Coseno dell’angolo tra due rette. Coseni direttori di una retta, in forma parametrica ed in forma cartesiana. Pendenza di una retta. La pendenza è uguale alla tangente dell’angolo formato con l’asse delle ascisse.

Gio 31.10 Esercizi.

Settimana 7

Lun 04.11 Condizione di ortogonalità di due rette in termini della loro pendenza. Formula della tangente dell’angolo tra due rette non ortogonali in termini delle loro pendenze. Versore normale di una retta. Interpretazione geometrica dei coefficienti dell’equazione che definisce una retta. Le rette si scrivono in forma cartesiana come \(n\cdot X=n\cdot P\). Ortogonale di un vettore. L’ortogonale di un sottospazio vettoriale è un sottospazio vettoriale. Decomposizione ortogonale di \(\mathbb{R}^2\). Proiezione ortogonale di un vettore su un sottospazio vettoriale. Proiezione ortogonale di un vettore su un altro vettore. Formula per la proiezione ortogonale di un vettore su un altro vettore. La proiezione ortogonale di un vettore \(w\) su un vettore non-nullo \(v\) è il multiplo di \(v\) più vicino a \(w\).

Mar 05.11 Definizione di distanza tra sottoinsiemi di \(\mathbb{R}^2\). Distanza punto-retta: formula con il vettore normale e con il vettore direttore. La distanza è invariante per traslazioni. Rette tangenti ad una circonferenza.

Mer 06.11 Il determinante 2x2. Il determinante 2x2 come area orientata. Due vettori \(v,w\in\mathbb{R}^2\) sono linearmente indipendenti se e solo se det(v|w)\(=\not 0\). Formula di Cramer per sistemi 2x2. Il segmento. Punto medio del segmento. Combinazioni convesse. Descrizione dei punti del triangolo come combinazioni convessa dei suoi vertici.

Gio 07.11 Esercizi sulle combinazioni convesse. Baricentro. Asse di un segmento. Bisettrice di un angolo. Punti notevoli di un triangolo: baricentro, incentro, circocentro, ortocentro. Esercizio sui punti notevoli di un triangolo.

Settimana 8

Lun 11.11 Somministrazione del questionario OPIS. Test di autovalutazione sulla geometria del piano (testo, testo con soluzioni).

Mar 12.11 Funzioni o applicazioni lineari. Definizione. Una funzione lineare manda il vettore nullo nel vettore nullo. Esempi di funzioni lineari: 1) valutazione di un polinomio in un polinomio. 2) Derivata di un polinomio. 3) Moltiplicazione per un polinomio. 4) Moltiplicazione a sinistra per una matrice. Ogni funzione lineare \(\mathbb{K}^n\rightarrow\mathbb{K}^m\) è la moltiplicazione a sinistra per una matrice \(m\times n\). 5) Trasposizione di matrici. 6) Coniugio di numeri complessi. Teorema: La composizione di funzioni lineari è lineare; una combinazione lineare di funzioni lineari è lineare.

Mer 12.11 Somma diretta di due sottospazi vettoriali \(U\) e \(W\) di uno spazio vettoriale \(V\). Notazione: \(V= U\oplus W\). Proposizione: \(V=U\oplus W\) se e solo se se e solo se ogni vettore di \(V\) si scrive in maniera unica come la somma di un elemento di \(U\) e di un elemento di \(W\). La proiezione su un sottospazio \(U\) lungo un suo complementare \(W\) in \(V\), ovvero \(V=U\oplus W\). La proiezione su \(U\) lungo \(W\) la denotiamo con \(\textrm{pr}_{U}^{W}:V\rightarrow V\). La proiezione su \(U\) lungo \(W\) è lineare. Base standard \(e_\otimes e_j\) dello spazio vettoriale delle matrici \(m\times n\). La funzione cooordinata i-esima \(X\mapsto x_i\) è lineare. La funzione componente \((i,j)\), \(A\mapsto a_{ij}e_i\otimes e_j\) è lineare. Matrice associata ad un’applicazione lineare in una base di partenza e una base in arrivo. Diagrammi commutativi.

Gio 14.11 La funzione \(\pi_U^W\). Utilizzo dei digrammi commutativi per descrivere la matrice associata ad applicazione lineare in due basi. Esercizi sulla matrice associata ad un’applicazione lineare in due basi. Operazioni sui diagrammi commutativi. Il prodotto righe-per colonne. La matrice associata ad una composizione di funzioni lineari è uguale al prodotto righe per colonne delle matrici associate alle singole funzioni lineari.

Settimana 9

Lun 18.11 Una funzione lineare è univocamente determinata dai valori che assume su una base del dominio. La matrice identità e sue proprietà. Soluzione dell’esercizio 11 della settimana 8. Nucleo di un' applicazione lineare. Il nucleo di un’applicazione lineare è un sottospazio vettoriale del dominio. Il nucleo di \(S_A\) è l’insieme delle soluzioni del sistema omogeneo associato ad \(A\). Per trovare il nucleo di \(f:V\rightarrow W\): 1) trovare una base \(\mathcal{B}_V\) di \(V\); 2) Trovare una base \(\mathcal{B}_W\) di \(W\); 3) Trovare la matrice \(A\) associata ad \(f\) nelle basi \(\mathcal{B}_V\) e \(\mathcal{B}_W\); 4) Una base di \(Ker(f)\) è data dai vettori che hanno come vettori delle coordinate esattamente i vettori della base di \(Ker(S_A)\). L’immagine di un’applicazione lineare è un sottospazio vettoriale del co-dominio. Il rango di una funzione lineare è la dimensione della sua immagine.

Mar 19.11 Formula della dimensione. Teorema di struttura per le controimmagini di una funzione lineare. L’equazione matriciale \(AX=b\) è equivalente al sistema lineare avente matrice completa \((A|b)\). Teorema di struttura per le soluzioni di un sistema lineare. \(Im(S_A)=Col(A)\). Rango di una matrice. Il rango di una matrice è uguale al numero di colonne dominanti di \(A\). Definizione di nucleo di una matrice. Teorema di Rouchè-Capelli. Una funzione lineare è iniettiva se e solo il suo nucleo è banale. Funzioni invertibili. Teorema: Una funzione lineare è invertibile se e solo se è iniettiva e suriettiva; in questo caso la sua inversa è lineare. Polinomio interpolatore.

Mer 20.11 Proprietà degli isomorfismi lineari. La composizione di isomorfismi lineari è un isomorfismo e la sua inversa è la composizione delle inverse in ordine inverso. Matrici invertibili. Condizioni di invertibilità per una matrice. Formula dell’inversa di una matrice \(2\times 2\) invertibile. Algoritmo di inversione.

Gio 21.11 Una funzione lineare è un isomorfismo se e solo se manda basi in basi. Matrici di cambiamento di base. Matrice di cambiamento di base da una base standard. Esercizi su matrici associate, matrici di cambiemanto di base, basi di nucleo e immagine di funzioni lineari.

Settimana 10

Lun 25.11 Data una base \(\mathcal{B}=(v_1,\cdots, v_n)\) di \(\mathbb{K}^n\), \(F_\mathcal{B}=S_{B^{-1}}\) dove \(B=(v_1|\cdots| v_n)\) [Visto al tutoraggio]. Matrici elementari. Le matrici elementari sono invertibili e le loro inverse sono matrici elementari dello stesso tipo. Matrici equivalenti per righe. Teorema: due matrici \(A\) e \(B\) sono equivalenti per righe se e solo se esiste una matrice invertibile \(T\) tale che \(B=TA\); inoltre \(T\) è prodotto di matrici elementari e si trova con l’algoritmo di inversione generalizzato: \((A|\mathbb{1}_m)\rightarrow (B|T)\). Corollario: Ogni matrice invertibile è prodotto di matrici elementari. Utilizzo dell’algoritmo di inversione generalizzato per il calcolo di matrici del tipo \(B^{-1}A\). Spazio delle righe e Rango-riga di una matrice. Il rango riga è uguale al rango della trasposta. Teorema di decomposizione reale: \(\mathbb{R}^m=Col(A)\oplus \textrm{ker}(A^t)\); in particolare \(rg(A)=rg(A^t)\).

Mar 26.11 Forme, forme multilineari e forme alternanti su uno spazio vettoriale. Una forma bilineare su uno spazio di dimensione due è un multiplo del determinante 2x2. Forme su matrici quadrate. Forme multilineare sulle righe o sulle colonne di una matrice quadrata. Se una forma cambia segno quando si scambiano due variabili allore è alternante. Il viceversa è falso. Una forma multilineare è alternante se e solo se cambia segno quando si scambiano due variabili. Una forma sulle matrici \(n\times n\) è multilineare e alternante sulle righe se e solo soddisfa le proprietà (R1), (R2) e (R3). La funzione \(d^{(n)}\) è multilineare e alternante sulle righe e vale \(1\) sulla matrice identità [senza dimostrazione]. Teorema: per ogni \(n\geq 1\) esiste un’unica forma multilineare e alternante sulle matrici \(n\times n\) e che vale \(1\) sulla matrice identità; tale funzione si chiama determinante e si denota con \(det\). In particolare, \(det=d^{(n)}\). Determinante delle matrici elementari. Una matrice è invertibile se e solo se il suo determinante è diverso da zero. Il determinante di una matrice a scala è uguale al prodotto delle sue componeni diagonali. Teorema di Binet con due dimostrazioni. Corollari: \(det(AB)=det(BA)\); \(det(A^{-1})=(det(A))^{-1}\). Teorema: \(det(A^t)=det(A)\).

Mer27.11 Colonne dominanti. Il rango non cambia se si fanno operazioni sulle righe ma lo spazio delle colonne cambia. Teorema: \(rg(A)=rg(A^t)\). Operazioni elementari sulle colonne. Una forma \(g\) sulle matrici \(n\times n\) è multilineare e alternante sulle colonne se e solo se la forma \(f\) definita come \(f(A)=g(A^t)\) è multilineare e alternante sulle righe. Cor: esiste un’unica funzione multilineare e alternante sulle colonne che vale \(1\) sulla matrice identità; tale forma è il determinante. Sviluppi di Laplace del determinante.

Gio 28.11 Determinante di uno spazio vettoriale \(V\) rispetto ad una base di \(V\) (cenni alla dimostrazione di esistenza e unicità). La funzione area orientata è il determinante di \(\mathcal{V}_O^2\) rispetto al riferimento cartesiano standard \(\mathcal{C}=(i,j)\). Riferimento cartesiano standard \(\mathcal{C}=(i,j,k)\) di \(\mathcal{V}_O^3\); regola della mano destra; basi equiverse e contraverse. Il volume orientato è il determinate di \(\mathcal{V}_O^3\) rispetto a \(\mathcal{C}\). Teorema di Cramer. Formula di Cramer per l’inversa. Formula di Cramer per la risoluzione di un sistema lineare (quadrato) non-singolare.

Settimana 11

Lun 02.12 Endomorfismi lineari. Endomorfismi diagonalizzabili. Basi diagonalizzanti. Matrici diagonali. Matrici scalari. Moltiplicazione a destra e a sinistra per matrici diagonali. Matrice di rotazione. Matrice di riflessione ortogonale (attraverso una retta del piano passante per l’origine). Le matrici di rotazione non sono diagonalizzabili su \(\mathbb{R}\) ma sono diagonalizzabili su \(\mathbb{C}\). Le matrici di riflessione ortogonale sono diagonalizzabili su \(\mathbb{R}\). Autovettori e autovalori di endomorfismi lineari. Autovettori e autovalori di matrici. Interpretazione geometrica degli autovettori. Assi di simmetria di un endomorfismo lineare. Per capire una matrice \(2\times 2\) bisogna guardare a cosa fa sul quadrato unitario.

Mar 03.12 Autospazi. Molteplicità geometrica di un autovalore. Spettro di un endomorfismo lineare. Spettro di una matrice. Polinomio caratteristico. Polinomio caratteristico di matrici \(2\times 2\) e \(3\times 3\) in termini di traccia. La traccia. Le radici del polinomio caratteristico sono lo spettro della matrice. Autospazi relativi ad autovalori distinti si intersecano trivialmente. Una matrice \(n\times n\) è diagonalizzabile su \(\mathbb{K}\) se e solo \(\mathbb{K}^n\) è somma diretta degli autospazi della matrice. Per studiare la diagonalizzabilità di una matrice su \(\mathbb{K}\): 1) trovare il suo spettro, 2) trovare una base di ogni autospazio; mettendo insieme tutte queste basi si trova un insieme linearmente indipendente che è una base di \(\mathbb{K}^n\) se e solo se è una base diagonalizzante per la matrice se e solo se la matrice è diagonalizzabile su \(\mathbb{K}\). Svolgimento dell’esercizio 3 di gennaio del 20223/24. Una matrice \(A\) è diagonalizzabile se e solo se esiste una matrice invertibile \(B\) ed una matrice diagonale \(D\) tali che \(B^{-1)AB=D\); la matrice \(B\) ha per colonne una base diagonalizzante per \(A\) e la matrice \(D\) ha sulla diagonale i corrispondenti autovalori.

Mer 04.12 Teorema fondamentale dell’algebra (senza dimostrazione). Molteplicità algebrica di un autovalore. Spetrro di matrici a scala e molteplicità algebrica degli autovalori di una matrice a scala. Per le matrici diagonali la molteplicità algebrica di ogni autovoalore è uguale alla sua molteplicità geometrica. Matrici simili. Due matrici simili hanno lo stesso polinomio caratteristico. Teorema: \(mg_A(\lambda)\leq ma_A(\lambda)\). Teorema: una matrice è diagonalizzabile su \(\mathbb{K}\) se e solo se lo spettro è contenuto in \(\mathbb{K}\) e la molteplicità geometrica di ogni autovalore è uguale alla sua molteplicità algebrica. Blocco di Jordan. Esercizio 3 di febbraio 23/24.