Ingegneria per l'ambiente ed il territorio

Diario delle lezioni

A. A. 2025/2026

Tutti i risultati elencati sono stati dimostrati a lezione, se non diversamente specificato

Settimana 1

Lun 22.09 Presentazione del docente e della tutor. Presentazione della pagina web del corso. Descrizione della biblioteca, del centro di calcolo, dell’aula Ghizzoni e della fontanella. Descrizione dettaglaita della modalità di esame scritto e orale. Date degli esami. Definizione dei libri di testo adottati. Definizione dell’orario delle lezioni. Utilizzo di MATLAB e richiesta di iscrizione al corso MATLAB onramp.

Numeri naturali \(\mathbb{N}\), numeri interi \(\mathbb{Z}\), numeri razionali \(\mathbb{Q}\), numeri reali \(\mathbb{R}\). Cenni a classi di equivalenza. Operazione su un insieme. Proprietà di un’operazione: associatività, esistenza di un elemento neutro, opposto di un elemento, commutatività. Definizione di gruppo commutativo. Esempi e non-esempi di gruppi commutativi.

Simboli matematici: \(\{\cdots\}\), \((\cdots)\), \(\mid\), \(:=\).

Quantificatori: \(\forall\), \(\exists\).

Mar 23.09 Definizione di campo. Definizione di funzione. Immagine di una funzione. Simbolo matematico \(\exists!\). Definizione di polinomio a coefficienti in un campo. Grado di un polinomio. Notazioni: \(\mathbb{K}[x]\), \(\mathbb{K}[x]_{\le n}\). Somma e prodotto di polinomi. Valutazione di un polinomio in un numero. Radice o zero di un polinomio. Definizione dei numeri complessi \(\mathbb{C}\). Somma e prodotto in \(\mathbb{C}\). Teorema: \((\mathbb{C},+,\cdot)\) è un campo; definizione dell’inverso di un numero complesso. Teorema fondamentale dell’algebra. Radici di un polinomio di grado due.

Merc 24.09 Definizione di matrice \(m\times n\) a coefficienti o entrate o componenti in un campo \(\mathbb{K}\). Notazioni: \(\mathrm{Mat}_{m\times n}(\mathbb{K})\). Componenti di una matrice. Notazioni: \(A_i^j=a_{ij}\). Matrici colonna. Notazione: \(\mathbb{K}^n\). Matrici riga. Notazione: \(\mathbb{K}_m\). Somma di matrici. Proprietà della somma di matrici: Le matrici mxn formano un gruppo commutativo rispetto alla somma. Prodotto per scalari nell’insieme delle matrici mxn. Proprietà del prodotto per scalari. Pivot ed indici-pivot di una matrice. Equazioni lineari in una variabile a coefficienti in un campo e descrizione delle loro soluzioni.

Comandi MATLAB: [–], sym(–), A(i,j), zeros.

Tutoraggio in presenza (gli esercizi si trovano nella pagina e-learning del corso).

Giov 25.09 Equazioni lineari in \(n\) variabili a coefficienti in un campo \(\mathbb{K}\): Matrice dei coefficienti e matrice completa associata; la matrice completa determina univocamente l’equazione; pivot; indice-pivot; variabile dominante e variabili libere; soluzioni. Equazioni lineari ridotte. Risoluzione di equazioni lineari ridotte. Combinazioni lineari e span di elementi di \(\mathbb{K}^n\). Somma di sottoinsiemi di \(\mathbb{K}^n\).

Comandi MATLAB: \(==\), \(\texttt{equationsToMatrix}\), \(\texttt{linsolve}\), \(\backslash\).

Settimana 2

Lun 29.09. Equazioni lineari omogenee. Risoluzione di equazioni lineari omogenee ridotte. Soluzioni-base di equazioni lineari omogenee ridotte. Notazione: \(S(A|b)\) e \(S(A)\). L’insieme delle soluzioni di un’equazione lineare omogenea ridotta è lo span delle sue soluzioni-base. Equazione omogenea associata ad un’equazione lineare. Equazione ridotta associata ad un’equazione lineare. Notazione: \(rref(A\mid b)\). Teorema: un’equazione lineare ridotta è risolubile se e solo se è nulla oppure il suo pivot non è il termine noto; in questo caso le soluzioni sono \(X_0+Span(\textrm{soluzioni-base dell’equazione omogenea associata})\). Teorema: \(S(A\mid b)=S(rref(A\mid b))\) (senza dimostrazione).

Comandi MATLAB: \( \texttt{null}, \texttt{rref}\).

Mar 30.09 Dimostrazione del Teorema: \(S(A\mid b)=S(rref(A\mid b))\). Esercizio con lo studio di un’equazione lineare in cinque variabili a coefficienti complessi. Abbiamo cominciato a parlare di sistemi lineari, ovvero sistemi di equazioni lineari. Matrice dei coefficienti, matrice dei termini noti e matrice completa di un sistema lineare. Soluzioni di un sistema lineare. Notazione: \(S:(A\mid b)\) vuol dire che \(S\) è l’insieme delle soluzioni del sistema \((A\mid b)\). Sistemi e matrici a scala. Colonne dominanti di una matrice a scala. Variabili dominanti e variabili libere di un sistema a scala. Teorema: un sistema a scala è risolubile se e solo se ogni sua equazione è risolubile. Corollario: un sistema a scala è risolubile se e solo se la colonna dei termini noti della sua matrice completa non è dominante. Esercizio: Stabilire se una matrice data è combinazione lineare di alcune matrici.

Merc 01.10 Sistemi a scala ridotta: definizione e primo esempio. Matrici a scala ridotta. Sistemi omogenei. Un sistema omogeneo è riolubile. L’insieme delle soluzioni di un sistema omogeneo con matrice dei coefficienti \(A\) si chiama il nucleo o kernel di A. Notazione: \(\textrm{Ker}(A)\). Sistema omogeneo associato ad una matrice. Sistema associato ad una matrice. Proposizione: le combinazioni lineari di soluzioni di un’equazione lineare omogenea sono ancora soluzioni. Soluzioni-base di sistemi omogenei a scala ridotta. Teorema: L’insieme delle soluzioni di un sistema omogeneo a scala ridotta è lo span delle sue soluzioni-base. Trasposta e notazione \(X^t\).

Giov 02.10 Soluzioni di un sistema a scala ridotta. Sistemi equivalenti. Operazioni elementari sulle equazioni di un sistema. Le operazioni elementari producono sistemi equivalenti. Matrici equivalenti per righe. Richiami sulle relazioni di equivalenza. “Essere equivalenti per righe” è una relazione di equivalenza. Operazioni elementari inverse. Teorema: Ogni matrice è equivalente per righe ad un’unica matrice a scala ridotta (senza dimostrazione). Forma a scala ridotta di una matrice. Notazione: \(\texttt{rref}(A)\). Algoritmo di Gauss. Se due matrici sono equivalenti per righe i sistemi lineari associati sono equivalenti ed i sistemi omogenei associati sono equivalenti. Esempi ed esercizi sull’algoritmo di Gauss e la forma a scala ridotta di una matrice.

Comando MATLAB: \(\texttt{rref}(A)\)

Settimana 3

Lun 06.10 Sottomatrici di una matrice. Notazioni: \(A([..],[..])), \(A(:,[..])) e \(A([..],:)). Forma a scala di una matrice. Formula che definisce le operazioni elementari sulle righe di una matrice. Lemma: Se A è equivalente per righe a B allora anche le sotto matrici supportate su alcune loro colonne sono equivalenti per righe, con le stesse operazioni elementari. Esercizio: le sottomatrici di una matrice a scala formata dalle prime colonne è a scala con gli stessi indici-dominanti. Prop: Se due matrici a scala sono equivalenti per righe allora hanno gli stessi indici dominanti. Indici-dominanti, colonne dominanti e rango di una matrice qualunque. Teorema: esistenza ed unicità della forma a scala ridotta di una matrice.

Comandi MATLAB: \(A([..],[..])), \(A(:,[..])) e \(A([..],:)), \(\texttt{rk}(A)\)

Mar 07.10 Teorema di Rouché-Capelli. Teorema di struttura delle soluzioni di un sistema lineare. Tricotomia delle soluzioni di un sistema lineare. Sistemi lineari dipendenti da parametri. Sistemi lineari la cui matrice dei coefficienti ha rango massimo: se è uguale al numero di righe è sempre risolubile (per ogni scelta dei termini noti) se è uguale al numero di colonne ed è risolubile ha un’unica soluzione, se il numero di righe è uguale al numero di colonne il sistema è sempre risolubile ed ha un’unica soluzione. Utilizzo dei sistemi lineari per stabilire se una matrice di \(\textbb{K}^m\) è combinazione lineare di altre matrici. Ogni colonna di una matrice è combinazione lineare delle sue colonne dominanti (abbiamo visto che i coefficienti sono le colonne della sua forma a scala ridotta).

Merc 08.10 “Gli elementi” di Euclide. Definizione del piano euclideo \(\mathcal{E}^2\). Notazioni: \(P_1P_2\cdots P_n\), \(\lvert AB\rvert\). Richiami: poligoni convessi e concavi, semirette, semipiani, definizione di triangoli simili, criteri di similitudine dei triangoli. Esercizio: dimostrare i tre criteri di similitudine. Deifnizione di parallelogrammo. Teorema del parallelogramma (non-degenere). Teorema di Talete. Teorema di Tolemeo. Teorema di Pitagora.

Giov 09.10 Teorema del parallelogrammo degenere. Vettori geometrici del piano. Vettori geometrici equivalenti. Proposizione: “Essere equvialenti” è una relazione di equivalenza. Vettori geometrici applicati ad un punto. L’insieme \(\mathcal{V}_O^2\) dei vettori geometrici applicati ad un punto \(O\). Proposizione: ogni vettore geometrico è equivalente ad un unico elemento di \(\mathcal{V}_O^2\). Somma di vettori geometrici applicati in \(O\). Teorema: \((\mathcal{V}_O^2,+)\) è un gruppo commutativo.

Settimana 4

Lun 13.10 Richiami sulla somma di vettori geometrici. \(-\overrightarrow{OA}\equiv \overrightarrow{AO}\). Proposizione: \(\overrightarrow{AB}\equiv \overrightarrow{OB}-\overrightarrow{OA}\). Prodotto per scalari in \(\mathcal{V}_O^2\). Teorema: proprietà del prodotto per scalari. Esercizi sui vettori geometrici.

Mar 14.10 Descrizione parametrica di una retta passante per \(O\) e sua parametrizzazione. Span di un vettore geometrico applicato ad \(O\). Lo span di \(\overrightarrow{OO}\) è il punto \(O\). Retta parametrica. Vettore direttore di una retta parametrica. Retta passante per due punti. Condizione di parallellismo di due rette parametriche. Condizione di incidenza di due rette parametriche. Descrizione qualitativa del punto di intersezione di due rette incidenti. Posizione reciproca di due rette. Posizione reciproca di un punto e di una retta. Posizione reciproca di due punti.

Merc 15.10 Condizione di incidenza punto-retta. Condizione di allineamento di tre punti. Il segmento. Combinazioni lineari di vettori geometrici in \(\mathcal{V}_O^2\). \(\mathrm{Span}(v_1,\cdots, v_n)\). Combinazioni convesse. \(\mathrm{Conv}(P_1,\cdots, P_n)\). Proposizione: \(\mathrm{Conv}(P_1,\cdots, P_n)\) è il più piccolo insieme convesso che contiene i punti \(P_1,\cdots, P_n\) e si chiama il loro inviluppo convesso (dimostrazione omessa). La funzione ``Area del parallelogrammo associato''; essa è simmetrica, non-negativa e bilineare. Il triangolo come combinazione convessa dei suoi vertici. Teorema: interpretazione geometrica dei coefficienti delle combinazioni convesse dei vertici di un triangolo. Analisi qualitativa della posizione di un punto di un triangolo, conoscendo i suoi coefficienti come combinazione convessa dei vertici. Baricentro di un triangolo.

Giov 16.10 Lezione annullata per assenza del docente.

Settimana 5

Lun 20.10 Proiezione su una retta lungo un’altra rette ad essa non-parallela. Notazione: \(\textrm{pr}_r^s:\mathcal{V}_O^2\rightarrow\mathcal{V}_O^2\). Proposizione: La proiezione su una retta lungo un’altra retta è una funzione lineare. Esempio di come usare la linearità come strumento di calcolo. Riferimento affine del piano. Notazione: \(RA(O,A,B)\). In \(RA(O,A,B)\), ogni vettore si scrive in maniera unica come combinazione lineare di \(\overrightarrow{OA}\) e \(\overrightarrow{OB}\). Coordinate di un punto in un riferimento affine. Definizione preliminare di base. Due vettori applicati ad \(O\) e non-allineati formano una base di \(\mathcal{V}_O^2\). Dati tre punti \(P_1,P_2,P_3\) distinti e allineati su di una retta che non contiene \(O\), l’insieme \(\mathcal{T}=(P_1,P_2,P_3)\) non è una base di \(\mathcal{V}_O^2\) perchè il vettore nullo si scrive in due modi diversi come loro combinazione lineare.

Mar 21.10 Notazione: In RA(O,A,B), \(P=(x_1,x_2)^t\). Relazioni di dipendenza lineare tra vettori applicati ad uno stesso punto. Dipendenza/indipendenza lineare in \(\mathcal{V}_O^2\). Proposizione: un insieme è lin. Ind. se e solo se ogni vettore del suo span si scrive in maniera unica come combinazione lineare dei suoi elementi. Definizione di base di \(\mathcal{V}_O^2\). Analisi sulla dipendenza/indipendenza lineara di un insieme al variare della sua cardinalità. Proposizione: tutte le basi di \(\mathcal{V}_O^2\) hanno la stessa cardinalità. Definizione di dimensione di \(\mathcal{V}_O^2\). \(\textrm{dim }\mathcal{V}_O^2=2\). Coordinate in una base. La funzione “coordinate in una base”. Notazione: \(F_B\). La funzione \(F_B\) è lineare e invertibile. I punti del piano sono parametrizzati da \(\mathbb{R}^2\) e la parametrizzazione dipende dalla scelta di una base.

Mer 22.10 Geometria affine di \(\mathbb{R}^2\). Rette in \(\mathbb{R}^2\): condizione di parallelismo, condizione di incidenza. Condizione di incidenza punto-retta. Fascio di rette per un punto. Condizione di allineamento di tre punti. Retta per due punti.

Giov 23.10 Prerequisiti di trigonometria: definizione di angolo, angolo retto, angolo acuto, angolo ottuso, angolo piatto e angolo giro; ampiezza di un angolo (in gradi) e lunghezza di un angolo (in radianti); angoli formati da due vettori geometrici applicati ad uno stesso punto; vettori geometrici ortogonali; notazione: \(\hat{v_1v_2}\); somma degli angoli di un triangolo; triangolo acutangolo, ottusangolo, rettangolo; definizione di coseno, seno e tangenti di un angolo; relazione fondamentale della trigonometria; coseno e seno di una somma di angoli; teorema di Carnot o del coseno) e sua conseguenza per i triangoli. Definizione di forma bilineare su \(\mathcal{V}_O^2\). Definizione di determinante in \(\mathcal{V}_O^2\). Definizione di prodotto scalare in \(\mathcal{V}_O^2\). Il determinante è una forma anti-simmetrica. Il determinante vale zero se e solo se valutato su vettori linearmente dipendenti; il determinante preserva il prodotto per scalari in entrambe le variabili.

Settimana 6

Lun 27.10 Il determinante in \(\mathcal{V}_O^2\) è bilineare. Funzioni bilineari su \(\mathcal{V}_O^2\). Condizione di allineamento di tre punti in termini del determinante. Calcolo del determinante in \(\mathcal{V}_O^2\) in coordinate. Determinante \(2\times 2\): è una funzione delle colonne di una matrice \(2\times 2\). Dalla definizione segue subito che è anti-simmetrica e bilineare (sulle colonne) e che vale zero se e solo se le colonne sono linearmente dipendenti. Comportamento del determinante rispetto alle operazioni elementari sulle colonne di una matrice \(2\times 2\). Proposizione: \(det(A)=det(A^t)\) per ogni matrice \(A\) di taglia \(2\times 2\). Comportamento del determinante rispetto alle operazioni elementari sulle righe di una matrice \(2\times 2\).

Mar 28.10 Esercizio sul calcolo del determinante \(2\times 2\) utilizzando la sua bilinearità sulle colonne e sulle righe. Uso del determinante per il calcolo delle coordinate di un vettore geometrico in una base di (\mathcal{V}_O^2\). Formula di Cramer per la risoluzione di un sistema lineare non-singolare in due variabili. Proprietà del prodotto scalare in \(\mathcal{V}_O^2\): il suo segno è positivo se e solo se l’angolo minore formato dai due vettori è acuto; vettori ortogonali; è una forma simmetrica; è una forma definita positiva; è una forma non-degenere. Teorema: il prodotto scalare è una forma bilineare (dimostrazione parziale). Prodotto scalare in coordinate: proprietà della matrice che ha per entrate prodotti scalari tra gli elementi di una base.

Merc 29.10 Fine della dimostrazione della blinearità del prodotto scalare in \(\mathcal{V}_O^2\). Matrici definite positive. Una matrice è definita positiva se e solo se è la matrice che ha per entrate i prodotti scalari tra gli elementi di una base di \(\mathcal{V}_O^2\). Notazione: \(A_{\mathcal{B}}\). La forma associata ad una matrice definita positiva si chiama prodotto scalare in \(\mathbb{R}^2\). Sistemi di rifermineto cartesiano. Sistemta di riferimento cartesiano standard. Basi ortonormali di \(\mathcal{V}_O^2\). Notazione: \(\mathcal{C}=(\overrightarrow{i},\overrightarrow{j})\). Prodotto scalare standard o prodotto puntino in \(\mathbb{R}^2\). Distanza in \(\mathcal{V}_O^2\). Norma in \(\mathbb{R}^2\) (rispetto ad un prodotto scalare qualunque ed al prodotto scalare standard). Distanza punto-punto. Circonferenze. Equazione parametrica di una circonferenza.

Giov 30.10 Equazione cartesiana di una circonferenza. Versore associato ad un vettore. Versori direttori di una retta. Coseni direttori di una retta. Pendenza di una retta. Rette ortogonali. Vettori normali ad una retta. Equazione cartesiana di una retta. Fascio di rette per due rette. Proiezione ortogonale. Distanza punto-retta.

Settimana 7

Lun 03.11 Esercizi di riepilogo sulla geometria del piano: posizione reciproca di due rette (in forma cartesiana-parametrica, cartesiana-cartesiana, parametrica-parametrica); asse di un segmento; circocentro di un triangolo; bisettrice di un angolo; incentro di un triangolo.

Mar 04.11 Definizione di spazio vettoriale su un campo \(\mathbb{K}\). Dieci esempi di spazio vettoriale: \(\mathrm{Mat}_{m\times n}(\mathbb{K})\), \(\mathbb{K}^n\), \(\mathrm{Ker}(A)\), \(\mathbb{K}\), \(\mathbb{C}\) come \(\mathbb{R}\)-spazio vettoriale, \(\mathbb{K}[x]\), \(\mathbb{K}[x]_{\leq n}\), \(\mathcal{V}_O^2\), \(\mathcal{V}_O^3\), \(X^\mathbb{K}\). Non-esempi: \(\emptyset\), \(S(A\mid b)\) con \(b=\not 0\). Prime proprietà degli spazi vettoriale: legge di annulamento della somma, legge di annullamento del prodotto per scalari. Combinazioni lineari e span. Uno span contiene sempre il vettore nullo ed i suoi generatori. Esempi di span: \(\mathcal{V}_O^2\), \(r_{OA}\), \(\mathcal{V}_O^3\). Non-esempi: ogni insieme che non contiene il vettore nullo. Su un campo infinito, uno span o ha un unico elemento oppure ne ha infiniti.

Merc 05.11 Generatori standard di \(\mathbb{K}^n\), di \(\mathbb{K}[x]_{\leq n}\) e di \(\mathrm{Mat}_{m\times n}\). Le colonne dominanti di una matrice \(A\) sono ottimi generatori di \(\mathrm{Col}(A)\). Sottospazi vettoriali: definizione, definizione equivalente, esempi e non esempi. Ogni Span è un sottospazio vettoriale. Sottospazio generato: l’intersezione di sottospazi vettoriali è un sottospazio vettoriale. Somma di sottospazi vettoriali: esso è un sottospazio vettoriale ed è il sottospazio generato dall’unione dei due sottospazi vettoriali.

Giov 06.11 Esercizi su intersezione e somma di sottospazi vettoriali in \(\mathbb{R}^m\). Somma diretta di sottospazi ed unicità della scrittura. La funzione \(\mathrm{pr}_U^W\). Lemma di scambio. I polinomi di grado minore o uguale ad n sono generati da n+1 polinomi di gradi distinti. Dipendenza/indipendenza lineare. Lemma di dipendenza lineare. Lemma di indipendenza lineare.

Settimana 8

Lun 10.11 Richiami riguardo alle date e modalità di esame ed i contenuti della pagina web. Mercoledì 12.11 si terrà il questionario OPIS sul corso. Applicazioni del lemma di scambio: polinomi di grado \(\leq n\) che si annullano in \(n\) punti distinti. Polinomio interpolatore di dati statistici (con ascisse distinte). Richiami sul lemma di dipendenza lineare e sul lemma di indipendenza lineare. Esempi di insiemi linearmente indipendenti: i generatori standard di \(\mathbb{K}^n\), i generatori standard di \(\mathbb{K}[x]_{\leq n}\), le soluzioni-base di un sistema lineare omogeneo, le colonne dominanti di una matrice, \(\cos(x),\cos(2x)\), \((1)\) è linearmente indipendente in \(\mathbb{K}\), \((1,i)\subset \mathbb{C}\) è linearmente dipendente su \(\mathbb{C}\) ma linearmente indipendente su \(\mathbb{R}\). Teorema fondamentale sull’indipendenza lineare. Esempio 4.6.29 del libro.

Mar 11.11 Se un sottoinsieme di uno span contiene più elementi del numero di generatori allora è linearmente dipendente. Definizione di base di uno spazio vettoriale. Teorema: tutte le basi hanno la stessa cardinalità. Dimensione di uno spazio vettoriale. Calcolo delle dimensioni di tutti gli spazi vettoriali visti finora. Lo spazio vettoriale dei polinomi e delle forme su un insieme non hanno una base. Spazi vettoriali finitamente generati. Ogni spazio vettoriale finitamente generato ammette una base. Algoritmo di generazione di basi. Teoria della dimensione: Sottospazi vettoriali di spazi vettoriali finitamente generati sono finitamente generati e la loro dimensione è minore o uguale alla dimensione dello spazio vettoriale ed inoltre l’uguaglianza vale se e solo se sono uguali; in uno spazio vettoriale di dimensione n un insieme con n elementi è una base se e solo se è linearmente indipendente se e solo se genera lo spazio vettoriale. Teorema del completamento. Completamento delle soluzioni-base di un sistema lineare omogeneo in n vriabili ad una base di \(\mathbb{K}^n\).

Merc 12.11 Il completamento di un insieme linearmente indipendente ad una base si può ottenre con l’algoritmo di generazione di basi e produce una decomposizione dello spazio vettoriale in somma diretta. Esercizio su \(\textrm{pr}_U^W\) nel caso \(U=\textrm{Ker}(A)\). Formula di Grassmann. Esercizio sulla formula di Grassmann. Somministrazione del questionario OPIS. Funzione coordinate in una base: essa è un isomorfismo lineare; in particolare manda basi in basi. Esercizio su come usare la funzione coordinate per stabilire se un insieme di polinomi è una base.

Giov 13.11 Problemi di natura vettoriali in uno spazio vettoriale (come dipendenza/indipendenza lineare, appartenenza ad uno span, completamento ad una base, estrazione di una base) possono essere risolti in \(\mathbb{K}^n\) utilizzando la funzione coordinate in una base. In questa lezione abbiamo imparato a risolvere questi quattro problemi in \(\mathbb{K}^n\). Algoritmo di completamento in \(\mathbb{K}^n\). Abbiamo poi risposto alla domanda: come sono fatti i sottospazi vettoriali di \(\mathbb{K}^n\)? Essi sono tutti e soli nuclei di matrici con \(n\) colonne. Equazioni parametriche e cartesiane di sottospazi vettoriali di \(\mathbb{K}^n\).

Settimana 9

Lun 17.11 Sottospazi affini. Condizione di appartenenza ad un sottospazio affine. Il punto di passaggio si può cambiare a piacimento. Il sottospazio di giacitura è univocamente determinato dal sottospazio affine. Dimensione di un sottospazio affine. Definizione di punto, retta, piano ed iperpiano. Retta per due punti distinti. Condizione di allineamento di tre punti. Piano per tre punti non allineati. Combinazioni affini. Inviluppo affine. L’inviluppo affine di un numero finito di punti è il più piccolo sottospazio affine che li contiene. Condizione di parallelismo. Condizione di incidenza. Sottospazi affini di \(\mathbb{K}^n\): essi sono tutti e soli insiemi di soluzioni di sistemi lineari risolubili in \(n\) variabili. Equazioni parametriche e cartesiane. Rette di \(\mathbb{R}^2\). Rette di \(\mathbb{R}^3\). Piani di \(\mathbb{R}^3\). Posizione reciproca di due rette parametriche di \(\mathbb{R}^3\).

Mar 18.11 Funzioni o applicazioni lineari. Definizione. Una funzione lineare manda il vettore nullo nel vettore nullo. Esempi di funzioni lineari: 1) Funzione coordinate in una base e sua inversa. 2) valutazione di polinomi in un polinomio. 3) Valutazione di polinomi in un numero finito di scalari. 4) Moltiplicatione di polinomi per un polinomio. 5) Derivata di un polinomio. 6) Coniugio di numeri complessi. 7) Trasposizione di matrici. 8) Moltiplicazione a sinistra per una matrice. 9) Moltiplicazione a destra per una matrice. Ogni funzione lineare \(\mathbb{K}^n\rightarrow\mathbb{K}^m\) è la moltiplicazione a sinistra per una matrice \(m\times n\).

Merc 19.11 Esempio 10) di applicazione lineare: la proiezione su un sottospazio vettoriale lungo un suo supplementare. Proposizione: \(X\in S(A|b)\) se e solo se \(S_A(X)=b\) ovvero \(AX=b\). Geometria affine dello spazio: discussione dettagliata di tutti i casi retta/retta di tre casi su quattro di piano/retta, gli altri casi sono stati lasciati come esercizio. Nucleo e immagine di una funzione lineare. Teorema: il nucleo e l’immagine di un’applicazione lineare sono sottospazi vettoriali del dominio e del codominio, rispettivamente, e vale la formula della dimensione.

Giov 20.11 La dimostrazione della formula della dimensione applicata ad \(S_A\) ci dice che le colonne dominanti della matrice \(A\) formano una base dello span delle sue colonne. Combinazioni lineari di funzioni lineari sono lineari. Composizioni di funzioni lineari sono lineari. Esempi ed esercizi su nucleo ed immagine di una funzione lineare (abbiamo svolto l’esercizio 4 dell’esame di gennaio 2025). Esercizio su come scrivere una funzione lineare (una proiezione) da \(\mathbb{K}^n\) a \(\mathbb{K}^m\) come la moltiplicazione sinistra per una matrice.

Settimana 10

Lun 24.11 Isomorfismi lineari. Esempi: l’identità e la funzione coordinate in una base; Non esempi: la funzione nulla. Richiami su funzioni iniettive, suriettive e invertibili. Funzione inversa. L’inversa di una funzione lineare è lineare. Spazi vettoriali isomorfi. Criterio di iniettività di una funzione lineare. Criterio di suriettività di una funzione lineare. Polinomi di Lagrange: essi formano una base se associati a scalari distinti. La funzione valutazione in n+1 scalari distinti è un isomorfismo lineare. Matrici invertibili. Esempio di matrice invrtibile: la matrice identità; non-esempio di matrice invertibile: la matrice nulla. Quattro crietri di invertibilità.

Mar 25.11 Algoritmo di inversione. Matrice inversa. Inversa di una matrice \(2\times 2\). Matrici elementari. L’inversa di una matrice elementare è una matrice elementare dello stesso tipo. Prodotto righe per colonne.

Merc 26.11 Conclusione della dimostrazione della formula per l’inversa di una matrice \(2\times 2\). Proprietà della matrice inversa. Sistemi non-singolari. Matrici invertibili e matrici elementari: una matrice è invertibile se e solo se è prodotto di matrici elementari. Un’applicazione lineare è univocamente determinata dai valori che assume su una base.

Giov 27.11 Matrice associata ad un’appliczione lineare. Matrice di Vandermonde. Teorema: Calcolo di una base del nucleo e dell’immagine di un’applicazione lineare attraverso una matrice ad essa associata. Un’applicazione lineare è invertibile se e solo se ogni matrice ad essa associata è invertibile. Diagrammi commutativi. Matrici di cambiamento di base. Matrice di cambiamento di base da una base standard ad una base qualunque. Spezzamento di un diagramma commutativo. Esempi ed esercizi.

Settimana 11

Lun 01.12 \(n\)-forme multilineari ed \(n\)-forme alternanti su uno spazio vettoriale. Forme multilineari sulle righe di una matrice quadrata. Forme multilineari sulle colonne di una matrice quadrata. Forme alternanti sulle righe di una matrice quadrata. Forme alternanti sulle colonne di una matrice quadrata. Proprietà delle funzioni multilineari e alternanti. Proposizione: una forma è multilineare e alternante sulle righe di una matrice quadrata se e solo soddisfa alle tre proprietà (R1), (R2) ed (R3). Teorema/definizione: esiste un’unica forma multilineare ed alternanti sulle righe di una matrice quadrata e che vale uno sulla matrice identità; tale funzione si chiama determinante e si denota \(det\). Abbiamo cominciato la dimostrazione esibendo la funzione \(d^{(n)}\) e facendo degli esempi.

Mar 02.12 Dimostrazione del teorema di esistenza ed unicità del determinante. Criterio di invertibilità: una matrice è invertibile se e solo se il suo determinante è diverso da zero. Determinante delle matrici elementari. Determinante di una matrice a scala. Teorema di Binet. Il determinante dell’inversa è l’inverso del determinante. Teorema: \(rg(A)=rg(A^t)\). Proposizione: \((AB)^t=B^tA^t\). Teorema: \(det(A^t)=det(A)\).

Merc 03.12 Rango-riga. Spazio delle righe. Operazioni elementari sulle colonne. Forme sulle matrici \(n\times n\) multilineari e alternanti sulle colonne. Teorema: Esiste un’unica forma sulle matrici \(n\times n\) multilineare e alternante sulle colonne e che vale uno sulla matrice identità; tale forma è il determinante. Tecniche di calcolo del determinante. Sviluppi di Laplace del determinante. Tecniche di calcolo del determinante : 1) operazioni elementari sulle righe; 2) operazioni elementari sulle colonne; 3) sviluppi di Laplace. Per calcolare il determinare bisogna usare le operazioni sulle righe e sulle colonne per creare molti zeri su una riga o su una colonna e poi sviluppare il determinante lungo quella riga o colonna. Correzione di alcuni esercizi del tutoraggio in presenza della settimana 11.

Giov 04.12 Discussione dei risultati degli OPIS (chi non lo ha compilato nella lezione 30 può compilarlo in fase di prenotazione all’esame). Cofattori. Matrice aggiunta. Formula di Cramer per l’inversa. Formula di Cramer per la risoluzione di sistemi lineari non-singolari. Teorema degli orlati.

Settimana 12

Mar 09.12 Il determinante di Vandermonde. Prodotto scalare standard o prodotto puntino in \(\mathbb{R}^3\). Riferimento cartesiano standard dello spazio. Lunghezze di vettori nello spazio rispetto alle coordinate nel riferimento cartesiano standard. Vettori ortogonali nello spazio in termini delle coordinate rispetto al riferimento cartesiano standard. Posizione reciproca di tre vettori nello spazio; regola della mano destra. La funzione volume orientato. Il determinante \(3\times 3\) come volume orientato. Il prodotto vettoriale. Proprietà del prodotto vettoriale. Utilizzo del prodotto vettoriale per il calcolo delle aree nello spazio.

Merc 10.12 Endomorfismi diagonalizzabili. Autovettori. Autovalori. Auto-coppie. Spettro di un endomorfismo lineare. Interpretazione geometrica degli autovettori, assi di simmetria. Matrici diagonalizzabili su un campo. Esempio di una matrice diagonalizzabile su \(\mathbb{C}\) ma che non ha nessun autovettore su \(\mathbb{R}\). Autospazi di una matrice. Una matrice di taglia \(n\) è diagonalizzabile su \(\mathbb{K}\) se e solo se \(\mathbb{K}^n\) è la somma diretta degli autospazi della matrice. Molteplicità geometrica di un autovalore. Definizione di polinomio caratteristico di una matrice. Traccia di una matrice. Formula per il polinomio caratteristico di una matrice \(2\times 2\). Formula per il polinomio caratteristico di una matrice \(3\times 3\) (senza dimostrazione). Il polinomio caratteristico di una matrice di taglia \(n\) è un polinomio monico di grado \(n\) e abbiamo descrizione il termine di grado \(n-1\) ed il termine noto. Gli autovalori sono gli zeri del polinomio caratteristico. Molteplicità algebrica degli autovalori.

Giov 11.12 Richiami sulla diagonalizzazione. Polinomio caratteristico e spettro di una matrice a scala (quadrata). \(F_\mathcal{B}=S_{B^{-1}}\) dove \(B\) ha per colonne gli elementi di \(\mathcal{B}\). Caratterizzazione della diagonalizzabilità in termini di una matrice invertibile ed una matrice diagonale. Matrici simili. Lemma: Il polinomio caratteristico e quindi lo spettro sono invarianti per similitudine. Lemma: Gli autospazi di matrici simili sono isomorfi. Teorema: La molteplicità geometrica è minore o uguale alla molteplicità algebrica. Teorema di caratterizzazione delle matrici diagonalizzabili. Cor: Se una matrice ha tutti gli autovalori distinti in un campo \(\mathbb{K}\) allora è diagonalizzabile su \(\mathbb{K}\). Blocco di Jordan. Potenze di una matrice diagonalizzabile. Svolgimento dell’esercizio 3 di gennaio 2025.

Settimana 13

Lun 15.12 Eserciio sulla diagonalizzazione. Diagonalizzazione di matrici di rango uno. Autovalori di matrici reali: la loro somma è la traccia ed il loro prodotto il determinante, essi vengono a coppie coniugate. Teorema di Cayley-Hamilton (senza dimostrazione). Utilizzo del teorema di Cayley-Hamilton per il calcolo dell’inversa. Definizione di prodotto scalare. Definizione di prodotto hermitiano. Cinque esempi di prodotto scalare. Il prodotto hermitiano standard. Geometria di \((\mathbb{R}^n,\bullet)\): norma e sue proprietà; disuguaglianza di Cauchy-Schwarz; disuguaglianza triangolare. Definizione di coseno di un angolo. Ortogonalità: insiemi ortogonali, essi sono linearmente indipendenti; coefficienti di Fourier; utilizzo dei coefficienti di Fourier per il calcolo di un’inversa; teorema di Pitagora. Matrici ortogonali. Appunti

Mar 16.12 Isometrie di \((\mathbb{R}^n,\bullet)\). Tralsazioni. Ogni isometria è la composizione di una traslazione e di una isometria lineare (senza dimostrazione). Le isometrie lineari sono moltiplicazioni a sinistra per una matrice ortgonale. Isometrie del piano. Matrici di rotazione. Matrici di riflessione ortogonale. Esercizi su rotazioni attorno ad un punto qualunque del piano e riflessioni ortogonali attraverso una retta qualunque del piano. Ortogonale di un sottospazio vettoriale. Teorema di decomposizione ortogonale. L’ortogonale dello spazio delle colonne di una matrice è il nucleo della matrice trasposta. Proiezione ortogonale. Lemma: \(rg(A^tA)=rg(A)\). Matrice di proiezione ortogonale. Properietà della matrice di proiezione ortgonale. La proiezione ortogonale di un punto \(P\) su un sottospazio vettoriale \(U\) è il punto di \(U\) più vicino a \(P\). Distanza di un punto da un sottospazio vettoriale. Appunti

Merc 17.12 (3 ore) Esercizio 5 di febbraio 2025. Calcolo della proiezione ortogonale con i coefficienti di Fourier. Proiezione ortogonale di un vettore su una retta. Distanza punto-retta. Algoritmo di Gram-Schmidt. Iperpiani e loro versori normali. Equazioni cartesiane di un iperpiano. Il prodotto vettoriale di due vettori è un vettore normale al piano che essi generano. Calcolo delle equazioni cartesiane di un piano parametrico dello spazio. Distanza punto-iperpiano. Matrici simmetriche e anti-simmetriche. Ogni matrice quadrata si scrive in maniera unica come la somma di una matrice simmetrica e di una anti-simmetrica. Formula di aggiunzione (per il prodotto scalare standard). Le matrici simmetriche sono auto-aggiunte. Teorema: lo spettro di una matrice simmetrica reale è reale. Esercizio: lo spettro di una matrice anti-simmetrica è complesso non-reale. Matrici ortogonalmente diagonalizzabili. Teorema spettrale reale. Esercizio 5 di luglio 2025. Appunti

Giov 18.12 Esercizio sulla diagonalizzazione ortogonale. Forma quadratica e forma bilineare associata ad una matrice simmetrica. Diagonalizzazione di forme quadratiche. Forma canonica di Sylvester di una forma quadratica. Forme quadratiche in due e tre variabili. Forme quadratiche definite positive, semi-definite positive e indefinite. Una forma quadratica è definita positiva se e solo se la matrice associata ha tutti gli autovalori positivi. Criterio di Sylvester (da dimostrare come esercizio settimanale). Una matrice due per due è definita positiva se e solo se ha determinante e componente (1,1) positivi. Le coniche. Richiami sulle proprietà focali delle ellissi, parabole e iperboli (questo è il link alla pagina e-learning dei precorsi di matematica nella quale si trova la videolezione sulle coniche nella sezione “geometria analitica”). Classificazione affine delle coniche. Esercizio sulla classificazione affine delle coniche.