Ingegneria chimica

Diario delle lezioni

A. A. 2021/2022

Tutti i risultati elencati sono stati dimostrati a lezione, se non diversamente specificato

Settimana 1

Mar 28.09 Presentazione del corso. Definizione ed esempi di campo. Il campo dei numeri complessi. Il modulo di un numero complesso. Rappresentazione dei numeri complessi sul piano cartesiano.

Mer 29.09 Coniugato di un numero complesso. Il coniugio è lineare e rispetta il prodotto. Interpretazione geometrica del coniugio sul piano complesso. Discussione degli Esercizi A.1, A.2, A.5 e A.6, pag. 188 e 189 del libro di testo.

Gio 30.09 Esercizio A.1, A.2 e A.5 sui numeri complessi. Esempi di funzioni: il prodotto cartesiano \(X\times X\) come insieme delle funzioni da \(\{1,2\}\) a \(X\), stessa cosa per le \(n\)-uple ordinate. Definizione di \(\mathbb{Q}^n\), \(\mathbb{R}^n\), \(\mathbb{C}^n\) e interpretazione come insiemi di funzioni. La moltiplicazione per l’unità immaginaria come rotazione di \(\pi/2\) in senso anti-orario attorno all’origine, la moltiplicazione per un numero complesso ed interpretazione geometrica, la somma per un numero complesso come traslazione del piano complesso. Somma e prodotto per scalari in \(\mathbb{R}^2\).

Ven 01.10 Esempi di trasformazioni del piano complesso (traslazione e moltiplicazione per un complesso \(w\)). Definizione assiomatica di spazio vettoriale. Esempi di spazi vettoriali: \(\mathbb K\) è uno spazio vettoriale su \(\mathbb K\); \(\mathbb C\) è uno spazio vettoriale su \(\mathbb R\); definizione di \(\mathbb K^n\), \(\mathbb K^Y\) dove \(Y\) è un insieme qualsiasi, \(Mat_{n \times m}(\mathbb K)\): sono tutti spazi vettoriali su \(\mathbb K\). Definizione di combinazione lineare e esempi di combinazioni lineari fra due vettori.

Settimana 2

Mar 05.10 Esempi di combinazioni lineari in \(\mathbb C\) e in \(Mat_{3 \times 2}\). Sistemi lineari come problema inverso della costruzione di una combinazione lineare. Matrice associata a un sistema lineare. L’uso di 3 operazioni è sufficiente per risolvere il sistema lineare (negli esempi visti). Codice MATLAB per inserire una matrice e per calcolare combinazioni lineari fra matrici. I polinomi \(\mathbb K[x]\) formano uno spazio vettoriale ed esempi di combinazione lineare in \(\mathbb K[x]\). Definizione di \(Span\) ed esempi in \(\mathbb C\) e in \(\mathbb K^n\); definizione dei vettori \(e_i\) in \(\mathbb K^n\). Definizione dei vettori geometrici del piano e dello spazio; definizione di somma e prodotto con un numero reale di vettori geometrici: \(\mathcal V_O^2\) è uno spazio vettoriale su \(\mathbb R\) (senza dimostrazione).

Mer 06.10 Combinazioni lineari in \(\mathcal V_O^2\). Segmento fra i punti \(A\) e \(B\) come insieme delle combinazioni convesse di \(\overrightarrow{A}\) e \(\overrightarrow{B}\); retta fra i punti \(A\) e \(B\) come insieme delle combinazioni affini di \(\overrightarrow{A}\) e \(\overrightarrow{B}\). Definizione di sottospazio vettoriale. Esempi in in \(\mathbb K[x]\), in \(\mathbb K^n\), in \(\mathbb R\). Lo \(Span\) è sempre un sottospazio vettoriale. Un sottospazio vettoriale è uno spazio vettoriale. Generatori di uno \(Span\) e di uno spazio o sottospazio vettoriale. Descrizione di tutti i sottospazi vettoriali di \(\mathcal V_O^2\) (senza dimostrazione).

Gio 07.10 Descrizione dei sottospazi vettoriali di \(\mathcal V_0^2\). Descrizione di \(\mathcal V_0^2\) come span di due vettori geometrici \(\overrightarrow{A}\) e \(\overrightarrow{B}\); costruzione geometrica della decomposizione di un vettore geometrico come somma di \(\overrightarrow{A}\) e \(\overrightarrow{B}\). Primo cenno alla forma cartesiana e parametrica di un sottospazio vettoriale. Esercizi su come passare dalla forma cartesiana a quella parametrica utilizzando l’algoritmo di eliminazione di Gauss (esercizio 1.3.7 del libro di testo). Comandi MATLAB: sym e rref.

Ven 08.10 Intersezione di sottospazi vettoriali è sottospazio vettoriale; il sottospazio generato \(\langle S \rangle\) da un insieme \(S\) di vettori. Il sottospazio somma \(W_1 + W_2\) è il sottospazio generato dall’unione \(W_1 \cup W_2 \) (con dimostrazione). Lemma di scambio (senza dimostrazione) con esempi di applicazione. Definizione di relazione di dipendenza lineare e definizione di insieme di vettori linearmente indipendenti. Esempi di relazioni di dipendenza lineari e insiemi indipendenti di uno o due vettori in \(\mathcal V_O^2\) e in funzioni reali di variabile reale.

Settimana 3

Mar 12.10 Lemma di dipendenza lineare. Lemma di indipendenza lineare. Un insieme di generatori è linearmente dipendente se è “ridondante”, ed è linearmente indipendente se è “essenziale”. Dato un insieme finito \(\mathcal{T}=\{v_1,\cdots,v_k\}\) di vettori di uno spazio vettoriale \(V\) su un campo \(\mathbb K\) abbiamo definito la funzione \(G_\mathcal{T}:\mathbb{K}^k\rightarrow V\) definita come \(G_\mathcal T(X)=x_1v_1+\cdots+x_k v_k\) ed abbiamo dimostrato che tale funzione è iniettiva se e solo \(\mathcal T\) è linearmente indipendente. Teorema fondamentale sull’indipendenza lineare (enunciato ed inizio dimostrazione).

Mer 13.10 Dimostrazione del teorema fondamentale sull’indipendenza lineare. Definizione di base. Definizione di dimensione. Esempio di una base di \(\mathbb R^2\) dipendente da un parametro. Definizione di spazio vettoriale finitamente generato. Algoritmo di generazione di basi. Ogni spazio vettoriale finitamente generato ammette una base. Basi canoniche o standard di \(\mathbb K^n\) e di \(\mathbb K[x]_{\geq n}\), esempi di basi di tutti gli spazi vettoriali visti, esempi di spazi vettoriali che non ammettono una base.

Gio 14.10 Esempio di come verificare che una coppia di vettori di \(\mathbb R^2\) formino una base. Coordinate di un vettore in una base. Definizione della funzione ‘‘coordinate in una base \(\mathcal B\)’’ \(F_{\mathcal B}:V\rightarrow\mathbb{K}^n\) che ad un vettore associa le sue coordinate nella base \(\mathcal{B}\). \(\mathcal{B}\) è una base se e solo se la funzione \(G_\mathcal{B}\) è iniettiva e suriettiva. \(\mathcal{B}\) è una base se e solo se la funzione \(F_\mathcal{B}\) è iniettiva e suriettiva. Le funzioni \(F_\mathcal{B}\) e \(G_\mathcal{B}\) sono una l’inversa dell’altra. Teorema del completamento ad una base. Esercizio 1.2.7 del libro di esercizi. Svolgimento del seguente esercizio: completare la base dell’esercizio Esercizio 1.2.7 del libro di esercizi ad una base di \(\mathbb R^5\). Formula di Grassmann. Cenni alla dimostrazione della formula di Grassmann.

Ven 15.10 Esercizio su una base alternativa di \(\mathbb K[x]_{\leq n}\). Definizione di somma diretta di sottospazi e di supplementare o complementare di sottospazio. Esempi di supplementari in \(\mathbb K^2\) e \(\mathcal V_O^2\). Trasposta di una matrice, matrici simmetriche e antisimmetriche. Lo spazio delle matrici quadrate si decompone in somma diretta di simmetriche e antisimmetriche.

Settimana 4

Mar 19.10 Conclusione dell’esercizio su matrici simmetriche e antisimmetriche. Definizione di funzione lineare. Esempi e controesempi: funzione identità; tra le costanti c’è solo la funzione nulla; da \(\mathbb R\) a \(\mathbb R\), ci sono solo le mappe della forma \(f(x) = \lambda x\); la trasposta è lineare; estrarre un coefficiente da una matrice è un’operazione lineare; la valutazione di un polinomio o di una funzione in un punto fissato \(a\) è lineare. Combinazione lineare di funzioni lineari è una funzione lineare. Definizione di traccia: è lineare. La funzione \(G_\mathcal B\) è lineare. L’inversa di una funzione lineare (invertibile) è lineare, dunque la funzione \(F_\mathcal B\) di coordinate nella base \(\mathcal B\) è lineare. Definizione di nucleo e immagine. Nucleo e immagine sono sottospazi (senza dimostrazione). Una funzione lineare è iniettiva se e solo se il nucleo è nullo (senza dimostrazione).

Mer 20.10 Richiami sulle funzioni lineari. Ogni funzione lineare è univocamente determinata dai valori che assume su una base. Esempi. Formula della dimensione. La dimostrazione illustra come trovare una base dell’immagine. Esempio. Esercizio a pagina 19 degli appunti “Applicazioni lineari”.

Gio 21.10 Esempi di funzioni lineari: il coniugio, la proiezione su un sottospazio vettoriale lungo un suo complementare. Interpretazione della forma cartesiana di un sottospazio vettoriale come nucleo di un’applicazione lineare. Interpretazione della forma parametrica di un sottospazio vettoriale come immagine di un’applicazione lineare.

Ven 22.10 Isomorfismi lineari. Ogni \(\mathbb K\)-spazio vettoriale \(V\) di dimensione \(n\) è isomorfo a \(\mathbb K^n\) tramite l’isomorfismo lineare \(F_\mathcal B\), per ogni scelta di una base \(\mathcal B\) di \(V\). Data una matrice \(A\) di taglia \(m\times n\) abbiamo definito la funzione *moltiplicazione a sinistra per \(A\)* come la funzione \(S_A:\mathbb{K}^n\rightarrow \mathbb{K}^m\) definita come \(S_A(X)=x_1A^1+\cdots+x_nA^n\). Le funzioni lineari da \(\mathbb{K}^n\) a \(\mathbb{K}^m\) sono tutte e sole moltiplicazioni a sinistra per una matrice \(m\times n\). Esempi di funzioni \(S_A\). Definizione di nucleo, immagine e rango di una matrice. Comando MATLAB \(\mathtt{rk}\). Esercizi su nucleo, immagine e rango di una matrice. Correzione dell’esercizio 3 della settimana 3.

Settimana 5

Mar 26.10 Composizione di funzioni. La composizione di funzioni lineari è lineare. In particolare la composizione di due funzioni lineari, una da \(\mathbb{K}^n\) a \(\mathbb{K}^m\) e l’altra da \(\mathbb{K}^m\) a \(\mathbb{K}^h\) è lineare. Quindi date due matrici \(A\in Mat_{h\times m}(\mathbb{K})\) e \(B\in Mat_{m\times n}(\mathbb{K})\) la funzione composta \(S_A\circ S_B:\mathbb{K}^n\rightarrow\mathbb{K}^h\) è la moltiplicazione a sinistra per una matrice \(C\in Mat_{h\times n}(\mathbb{K})\), ovvero \(S_A\circ S_B=S_C\). La matrice \(C\) si chiama il prodotto righe per colonne della matrice \(A\) per la matrice \(B\) e si denota con \(C=AB\). Descrizione delle colonne di \(C\). Descrizione delle componenti di \(C\). Abbiamo definito la funzione valutazione di un polinomio in un polinomio ed abbiamo osservato che è lineare.

Mer 27.10 Inversa destra ed inversa sinistra di una funzione. Se una funzione ammette un’inversa destra allora è suriettiva. Se una funzione ammette un’inversa sinistra allora è iniettiva. Una funzione \(f:X\rightarrow Y\) è invertibile se ammette sia inversa destra che inversa sinistra. In questo caso le due inverse coincidono e sono uniche e si chiamano l’inversa di \(f\) e si denotano con \(f^{-1}\). Una matrice \(A\in Mat_{m\times n}(\mathbb{K})\) si dice invertibile se \(S_A\) è invertibile. Una matrice \(A\in Mat_{m\times n}(\mathbb{K})\) è invertibile se e solo se \(m=n\), \(Ker(A)=\{0_n\}\) e \(rg(A)=m\). Matrice identità. Abbiamo definito la restrizione di una funzione lineare ad un sottospazio vettoriale ed abbiamo osservato che è lineare. Abbiamo dimostrato la formula per calcolare il rango di una funzione composta: \(rg(g\circ f)=rg(f)-dim (Ker(g)\cap Im(f))\). Abbiamo poi cominciato a parlare di matrici elementari concludendo con la definizione della matrice elementare \(P_{i,j}\).

Gio 28.10 Abbiamo definito le altre due matrici elementari \(D_i(\lambda)\) e \(F_{i,j}(c)\). Abbiamo definito le colonne dominanti di una matrice ed abbiamo osservato che le colonne dominanti formano una base dell’immagine della matrice. Le operazioni elementari sulle righe di una matrice di taglia \(m\times n\) sono endomorfismi lineari dello spazio vettoriale \(Mat_{m\times n}\). In particolare se una matrice \(B\) è ottenuta da una matrice \(A\) mediante successive operazioni elementari sulle righe, allora esiste una matrice \(T\) tale che \(B=TA\). Questa matrice \(T\) è il prodotto delle matrici elementari che corrispondono alle operazioni usate per trasformare \(A\) in \(B\). Poichè le matrici elementari sono invertibili, ed il prodotto di matrici invertibili è invertibile, ne segue che \(T\) è invertibile. Usando questo, abbiamo dimostrato che le colonne dominanti di \(A\) si trovano nella stessa posizione delle colonne dominanti di \(B\). Abbiamo dedotto che per trovare una base dell’immagine di \(A\), bisogna trovare una matrice \(B\) ottenuta da \(A\) mediante operazioni elementari sulle righe, e tale che le sue colonne dominanti siano facili da determinare. Abbiamo quindi definito le matrici a scala. Esse hanno la proprietà che le loro colonne dominanti sono evidenti.

Ven 29.10 Notazione tensoriale \(e_i\otimes e_j\) per gli elementi della base standard dello spazio vettoriale delle matrici \(m\times n\). In particolare, \(\dim Mat_{m\times n}(\mathbb{K})=mn\). Pivot di una matrice. Definizione di matrice a scala usando i pivot. Definizione di matrici equivalenti per righe. Algoritmo di Gauss per trovare una matrice a scala equivalente per righe ad una matrice data. Utilizzo dell’algoritmo di Gauss per determinare le colonne dominanti di una matrice. In particolare, calcolo di una base dell’immagine di una matrice. Definizione di matrice a scala ridotta. Data una matrice \(A\) esiste un’unica matrice a scala ridotta equivalente per righe ad \(A\); tale matrice si denota con rref(A). Comando MATLAB \(\mathtt{rref}\). Soluzioni-base di un sistema omogeneo e calcolo di una base del nucleo di una matrice. La forma a scala ridotta di una matrice invertibile è la matrice identità. Se \(A\in Mat_{n\times n}\) è invertibile, esiste una matrice \(T\in Mat_{n\times n}(\mathbb{K})\) tale che \(T\) è prodotto di matrici elementari e \(TA=\mathbb{1}_n\); dal fatto che le matrici elementari sono invertibili, si ottiene che anche \(AT=\mathbb{1}_n\). Quindi \(T=A^{-1}\). In particolare, l’inversa di una matrice invertibile è prodotto di matrici elementari.

Settimana 6

Mar 02.11 Una matrice quadrata è invertibile se e solo se ammette inversa destra se e solo se ammette inversa sinistra. Una matrice è invertibile se e solo se la sua forma a scala ridotta è l’identità. Algoritmo di inversione di Gauss-Jordan: \((A|\mathbb{1})\rightsquigarrow (\mathbb{1}|A^{-1})\). Data una matrice \(A\) di taglia \(2\times 2\), abbiamo denotato il numero \(a_{11}a_{22}-a_{12}a_{21}\) come \(det(A)\) e lo abbiamo chiamato il determinante di \(A\); abbiamo quindi dimostrato che una tale \(A\) è invertibile se e solo se \(det(A) =\not 0\). In questo caso abbiamo ottenuto una formula per calcolare \(A^{-1}\) in funzione delle componenti di \(A\). Data una base \( \mathcal{B}=\{v_1,\cdots, v_n\}\) di \(\mathbb{K}^n\) la funzione \(F_{\mathcal{B}}:\mathbf{K}^n\rightarrow\mathbf{K}^n\) è lineare ed invertibile, e quindi ci siamo chiesti come sia fatta la matrice \(A\) tale che \(F_\mathcal{B}=S_A\): abbiamo osservato che la funzione inversa \(G_\mathcal{B}\) di \(F_\mathcal{B}\) non è altro se non la moltiplicazione a sinistra per la matrice \(B=(v_1|\cdots|v_n)\) che ha per colonne gli elementi della base \(\mathcal{B}\) ed abbiamo quindi dedotto che \(F_\mathcal{B}=S_{B^{-1}}\). Abbiamo svolto un esercizio che richiedeva di verificare che tre vettori dati di \(\mathbb{R}^3\) formano una base, e calcolare le coordinate di un vettore in questa base; abbiamo quindi calcolato la matrice inversa della matrice che ha per colonne i vettori di quella base con l’algoritmo di inversione. Abbiamo poi richiamato con vari esempi come si calcola il rango, una base del nucleo ed una base dell’immagine di una matrice, con l’idea di generalizzare queste tecniche al caso di applicazioni lineari qualunque.

Mer 03.11 Matrice associata ad un’applicazione lineare \(f: V \rightarrow W\) in una base \(\mathcal{B}_V\) di \(V\) ed in una base \(\mathcal{B}_W\) di \(W\); una base del nucleo di \(f\) si ottiene applicando \(F_{\mathcal{B}_V}^{-1}\) ad una base del nucleo di tale matrice; una base dell’immagine di \(f\) si ottiene applicando \(F_{\mathcal{B}_W}^{-1}\) ad una base dell’immagine di tale matrice; il rango di \(f\) è uguale al rango di tale matrice.

Definizione di somma di funzioni e di prodotto di una funzione per uno scalare. Una combinazione lineare di due funzioni lineari aventi lo stesso dominio e lo stesso codominio è lineare. Lo spazio vettoriale delle funzioni lineari da un \(\mathbb{K}\)-spazio vettoriale \(V\) ad un \(\mathbb{K}\)-spazio vettoriale \(W\) si denota con \(\mathcal{L}(V,W)\) oppure con \(Hom(V,W)\). Esso è un \(\mathbb{K}\)-spazio vettoriale. La derivata e l’integrale di polinomi come esempi di funzioni lineari. La derivata è un’inversa sinistra dell’integrale.

Gio 04.11 Abbiamo definito le matrici di cambiamento di base: Date due basi \(\mathcal{B}_1\) e \(\mathcal{B}_2\) di uno spazio vettoriale \(V\) la matrice associata all’identità nelle basi \(\mathcal{B}_1\) in partenza e \(\mathcal{B}_2\) in arrivo si chiama la matrice di cambiamento di base dalla base \(\mathcal{B}_2\) alla base \(\mathcal{B}_1\). Abbiamo svolto due esercizi presi dal libro su matrici associate e matrici di cambiamento di base. Abbiamo osservato che ogni matrice invertibile è una matrice di cambiamento di base. Abbiamo concluso la lezione introducendo la definizione di applicazioni lineari simili (nel libro sono chiamate “equivalenti”) ed enunciato il teorema di classificazione delle applicazioni lineari: due applicazioni lineari da uno spazio vettoriale di dimensione \(n\) ad uno spazio vettoriale di dimensione \(m\) sono simili se e solo se hanno lo stesso rango; in questo caso sono simili alla matrice \(e_1|\cdots|e_r|0|\cdots|0)\) dove \(r\) denota il loro rango.

Ven 05.11 Riprendendo i diagrammi per il cambiamento di base abbiamo risolto una carrellata di esercizi: l’esercizio 2.2.7 del libro di testo, un esercizio sulla matrice associata ad una composizione di applicazioni lineari, un esercizio sulla similitudine di tre matrici \(2\times 3\). Nel corso della soluzione di quest’ultimo esercizio, abbiamo anche dimostrato il teorema di classificazione delle applicazioni lineari.

Settimana 7

Mar 09.11 Funzioni dalle matrici quadrate al campo; tali funzioni sono funzioni delle righe o delle colonne. Definizioni di funzione multilineare sulle righe e di funzione alternante sulle righe. Una funzione multilineare è alternante se e solo se scambiando due variabili la funzione cambia segno. Funzioni multilineari ed alternanti sulle matrici \(2\times 2\): esse sono multipli del determinante \(2\times 2\). Teorema: per ogni \(n\geq 1\) esiste un’unica funzione multilineare ed alternante sulle righe delle matrici \(n\times n\) che vale \(1\) sulla matrice identità. Tale funzione si chiama il determinante (\(n\times n\)). Dimostrazione dell’unicità di tale funzione. Discussione dell’esercizio 3 e dell’esercizio 4 della settimana 6.

Mer 10.11 Determinante delle matrici elementari. Dimostrazione dell’esistenza del determinante: per una matrice \(A\) di taglia \(n\times n\) abbiamo definito la matrice \(A_{i,1}\) come la matrice ottenuta da \(A\) togliendo la riga \(i\) e la colonna \(1\); dopodiché abbiamo definito la funzione \(d^{(n)}(A)=\sum (-1)^{i+1}a_{i1}d^{(n-1)}(A_{i,1})\) per \(n\geq 2\) e \(d^{(1)}\) come l’identità. Abbiamo dimostrato che \(d^{n}: Mat_{n\times n}(\mathbb{K})\rightarrow \mathbb{K}\) è multilineare ed alternante sulle righe e vale \(1\) sull’identità, se \(d^{(n-1)}\) ha le stesse proprietà. Esempio 3.2.24 dal libro di testo di calcolo del determinante e discussione sulla complessità computazionale di questa definizione. Come corollario della dimostrazione del teorema otteniamo che \(det(A)\neq0\) se e solo se \(rg(A)\) è massimo se e solo se \(A\) è invertibile. Il determinante di una matrice a scala è il prodotto degli elementi sulla diagonale. Teorema di Binet: \(det(AB)=det(A)det(B)\). Determinante dell’inversa. Comando MATLAB: \(\mathtt{det}\).

Gio 11.11 Abbiamo definito lo spazio delle righe ed il rango-riga di una matrice. Abbiamo parlato di operazioni elementari sulle colonne di una matrice ed abbiamo osservato che esse corrispondono a moltiplicare a destra per le matrici elementari. Abbiamo dimostrato che \(rg(A)=rg(A^t)=Rrg(A)\). Abbiamo dimostrato che \(det(A^t)=det(A)\). Abbiamo poi dimostrato che per ogni \(n\geq1\) esiste un’unica funzione dallo spazio delle matrici \(n\times n\) al campo che sia multilineare e alternante sulle colonne e che valga uno sulla matrice identità; tale funzione coincide con il determinante. Abbiamo quindi concluso che il determinante è l’unica funzione multilineare e alternante sulle colonne che vale uno sulla matrice identità. Per calcolare il determinante possiamo quindi operare sulle colonne. Abbiamo fatto diversi esempi di calcolo del determinante. Abbiamo enunciato la formula di Laplace per lo sviluppo del determinante lungo le righe o le colonne di una matrice. Abbiamo concluso con ulteriori esempi di calcolo del determinante.

Settimana 8

Mar 16.11 Sistemi di equazioni lineari e loro interpretazione matriciale. Teorema di Rouché-Capelli. Teorema di struttura delle soluzioni di un sistema lineare. Comandi MATLAB: \(\mathtt{sym(‘x’,[n,1])}\), \(\mathtt{eq1=..==b}\), \(\mathtt{equationsToMatrix}\), \(\mathtt{A}\)\\(\mathtt{b}\), \(\mathtt{null}\). Esercitazione in aula: gli studenti hanno risolto un sistema lineare con parametro in 30 minuti; dopodichè l’esercizio è stato corretto dal docente. (Appunti)

Mer 17.11 Rilevazione OPIS. Sistemi quadrati; un sistema quadrato \(AX=b\) ammette un’unica soluzione se e solo se \(A\) è invertibile; in questo caso l’unica soluzione è \(X_0=A^{-1}b\). Definizione di co-fattore \((i,j)\) di una matrice quadrata. Definizione di matrice dei co-fattori o aggiunta di una matrice quadrata. Formula dell’inversa tramite la matrice aggiunta. Formula di Cramer per la soluzione di un sistema quadrato non-singolare.

Gio 18.11 Richiami sui sistemi lineari e le formule di Cramer. Definizione di sottomatrice, di minore e di minore orlato. Se una matrice \(A\) contiene un minore di ordine \(k\) diverso da zero allora \(rg(A)\geq k\). Teorema dei minori orlati (senza dimostrazione). Comando MATLAB: \(\mathtt{A([…],[…])}\). Esercizi sul teorema dei minori orlati.

Ven 19.11 Prodotto di matrici a blocchi. Matrici triangolari a blocchi. Il determinante di una matrice triangolare a blocchi è il prodotto dei determinanti dei blocchi diagonali (senza dimostrazione). Matrice e determinante di Vandermonde. Teorema/Definizione: esistenza del polinomio interpolatore. Utilizzo del determinante di Vandermonde per dimostrare che certi polinomi sono linarmente indipendenti.

Settimana 9

Mar 23.11 Equazioni parametriche e cartesiane di sottospazi vettoriali di \(\mathbb{K}^m\). Come trovare le equazioni cartesiane di un sottospazio vettoriale di cui si conoscono le equazioni parametriche (ovvero una base). La funzione lineare \(D_A\) moltiplicazione a destra per una matrice \(A\). Il nucleo di \(D_A\) ha come base (i coefficienti delle) equazioni che definiscono una forma cartesiana di \(Col(A)\). Il nucleo di \(D_A\) si chiama quindi lo spazio delle relazioni lineari tra le colonne di \(A\). Il nucleo di \(D_A\) è isomorfo (tramite la trasposizione) al nucleo di \(A^t\). Esempi ed esercizi su equazioni cartesiane. Definizione di sottospazio affine. Sottospazio di giacitura di un sottospazio affine. Dimensione di un sottospazio affine. Definizione di punto, retta, piano ed iperpiano di uno spazio vettoriale. Definizione di sottospazi affini paralleli. Esempi ed esercizi.

Mer 24.11 Condizioni di parallelismo e di incidenza di due rette di \(\mathbb{R}^2\) in forma parametrica, nel caso in cui una sia in forma parametrica e l’altra in forma cartesiana e nel caso siano entrambe in forma cartesiana. Fascio di rette per un punto. Vettori direttori di un sottospazio affine. Vettore direttore di una retta del piano data in forma cartesiana. Retta per due punti distinti e suo vettore direttore.

Gio 25.11 Il determinante \(2\times 2\) come area orientata. Combinazioni convesse di vettori di uno spazio vettoriale reale. Inviluppo convesso. Il segmento. Il triangolo. Poligoni nel piano. Utilizzo del determinante per il calcolo dell’area di un triangolo, di un poligono e dell’inviluppo convesso di un numero finito di punti del piano. Baricentro di un triangolo.

Ven 26.11 Baricentro di n punti di uno spazio vettoriale reale, e baricentro del loro inviluppo convesso. Baricentro di un triangolo. Descrizione delle coordinate convesse dei punti di un triangolo come quozienti di aree. Condizione di allineamento di tre punti del piano. Sottospazi affini di \(\mathbb{R}^3\). Posizione reciproca di due rette: entrambe in forma parametrica, una in forma parametrica ed una in forma cartesiana, entrambe in forma cartesiana. Posizione reciproca di un piano in forma cartesiana e di una retta in forma parametrica. Condizione di allineamento di tre punti dello spazio. Fascio di piani per una retta.

Settimana 10

Mar 30.11 Definizione di forma bilineare su uno spazio vettoriale \(V\). Esempi di forme bilineari: 0) il determinante 2x2. 1) La forma bilineare \(g_A\) su \(\mathbb{K}^n\) indotta da una matrice \(A\in Mat_{n\times n}(\mathbb{K})\). 2) La forma \(g_{0,1,\cdots,n}\) sui polinomi di grado al più n. 3) La forma traccia sulle matrici \(m\times n\). 4) La forma bilineare standard \(g_{\mathbb{1}_n}\) o prodotto puntino di \(\mathbb{K}^n\). La matrice \(A_{g,\mathcal{B}}\) associata ad una forma bilineare su uno spazio vettoriale \(V\) in una base \(\mathcal{B}\) di \(V\). Date due basi \(\mathcal{B_1}\) e \(\mathcal{B_2}\) di \(V\) le matrici \(A_{g,\mathcal{B}_1}\) e \(A_{g,\mathcal{B_2}}\) sono legate dalla formula \(A_{g,\mathcal{B_1}}=B^tA_{g,\mathcal{B_2}}B\), dove \(B\) è la matrice di cambiamento di base dalla base \(\mathcal{B_2}\) alla base \(\mathcal{B_1}\). Definizione di matrici congruenti. Differenza tra come cambia la matrice associata ad una forma bilineare e ad un endomorfismo lineare su \(V\) quando si cambia base.

Mer 01.12 Definizione di forma bilineare simmetrica. Una forma bilineare \(g_A\) su \(\mathbb{K}^n\) è simmetrica se e solo se \(A=A^t\), ovvero se \(A\) è simmetrica. Definizione di coppia di vettori ortogonali, di vettore isotropo e di insieme ortogonale (rispetto ad una forma bilineare) in uno spazio vettoriale \(V\). La base standard di \(\mathbb{K}^n\) è un insieme ortogonale rispetto al prodotto puntino ma non rispetto alla forma \(g_J\) dove \(J\) è la matrice anti-diagonale avente tutti 1 sull’anti-diagonale e zero al di fuori dell’anti-diagonale. Definizione di nucleo di una forma bilineare simmetrica. Il nucleo di \(g_A\) è uguale a \(ker(A)\). Definizione di forma bilineare simmetrica non-degenere. Restrizione di \(g\) ad un sottospazio vettoriale. Il nucleo della restrizione di \(g\) ad un sottospazio vettoriale \(U\) è uguale a \(U\cap U^\perp\). Teorema di decomposizione ortogonale. Definizione di base ortogonale. Esempio motivante: diagonalizzazione di un polinomio omogeneo di secondo grado in due variabili (ovvero di una forma quadratica in due variabili).

Gio 02.12 Dimostrazione dell’esistenza di basi ortogonali rispetto a qualsiasi forma bilineare. Una forma bilineare è nulla se e solo se tutti i vettori dello spazio sono isotropi. Esempio di ricerca di una base ortogonale di una forma bilineare in \(\mathbb K^2\) in due modi: calcolo dell’ortogonale oppure processo di ortogonalizzazione (se i vettori incontrati non sono isotropi). La matrice associata a una forma bilineare simmetrica rispetto una base ortogonale è diagonale. Basi ortogonali notevoli: in \(\mathbb K^n\), la base standard è ortogonale; in \(Mat_{m\times n}\), la base standard \(e_i \otimes e_j\) è ortogonale rispetto alla forma traccia; in \(\mathbb K[x]_{\leq n}\), la base di polinomi di Lagrange è ortogonale rispetto la forma bilineare \(g(p_1,p_2)=\sum_{i=0}^n p_1(i)p_2(i)\). Si deduce che tali forme bilineari sono non-degeneri. Definizione di forma quadratica su uno spazio vettoriale. L’insieme dei vettori isotropi di una forma bilineare è l’insieme degli zeri della forma quadratica corrispondente. Esempio di forma quadratica su \(\mathbb R^2\) per la quale gli zeri giacciono nell’unione di due sottospazi di dimensione 1. Enunciato del teorema di Sylvester per classificazione di forme bilineari simmetriche su \(\mathbb K = \mathbb C\) e \(\mathbb K = \mathbb R\). Definizione di segnatura di una forma bilineare simmetrica. Definizione di forme definite positive o negative, forme semidefinite positive o negative, forme indefinite. Dimostrazione dell’esistenza di una base di Sylvester.

Ven 03.12 Dimostrazione dell’invarianza della segnatura per cambio di base. Esercizio di calcolo della segnatura e di una base di Sylvester di una forma su \(\mathbb R^3\). Definizione di spazio euclideo e primi esempi (\((\mathbb{R}^n,\cdot)\), \((\mathrm{Mat}_{m,n}(\mathbb R),\operatorname{tr})\), \((\mathbb R[x]_{\leq n},\mathrm{g}_{(0,1,\cdots,n)}\))); definizione di norma di un vettore, di versore, di base ortonormale in uno spazio euclideo. Algoritmo di ortogonalizzazione di Gram-Schmidt. Esercizio sull’ortogonalizzazione di Gram-Schmidt.

Settimana 11

Mar 07.12 Esercizio su come trovare una base ortogonale rispetto ad una forma bilineare in \(\mathbb{R}^3\). Sottomatrici e minori principali. Criterio di Sylvester su come stabilire se una matrice simmetrica è definita positiva (senza dimostrazione). Richiami su spazi vettoriali euclidei. Definizione di prodotto scalare nello spazio dei vettori geometrici del piano (senza dimostrazione). Disuguaglianza di Cauchy-Schwarz in uno spazio euclideo qualunque (senza dimostrazione). Definizione di coseno di un angolo tra due vettori di uno spazio euclideo. Definizione di distanza tra vettori di uno spazio euclideo. Definizione di distanza tra due sottoinsiemi di uno spazio euclideo. Distanza punto-retta con metodi analitici. Vettore normale ad una retta di \(\mathbb{R}^2\) e più in generale ad un iperpiano di \(\mathbf{R}^n\). Definizione di proiezione ortogonale su un sottospazio vettoriale di uno spazio euclideo. Esempio di proiezione ortogonale su una retta di \(\mathbb{R}^2\).

Mer 08.12 Vacanza accademica

Gio 09.12 Coefficienti di Fourier. Calcolo della proiezione ortogonale su un sottospazio vettoriale mediante i coefficienti di Fourier; versione matriciale \(QQ^t\) nel caso di \(\mathbb R^n\). Distanza tra sottospazi affini. Distanza tra un punto ed un sottospazio vettoriale. Teorema di Pitagora. Teorema: La distanza tra un punto ed un sottospazio vettoriale è uguale alla norme della differenza tra il punto e la sua proiezione ortogonale sul sottospazio. Teorema: per una matrice \(A\) vale \(Ker(A^tA)=Ker(A)\) e \(rg(A^tA)=rg(A)\). La matrice di proiezione ortogonale su \(Col(A)\) è \(A(A^tA)^{-1}A^t\). Disuguaglianza triangolare. Geometria analitica del piano: versori, rappresentazione grafica di \(\mathbb{R}^2,\cdot\), circonferenze (equazioni cartesiane e parametriche), versori direttori di una retta, coseni direttori.

Ven 10.12 Ancora sulla geometria analitica del piano: esercizio su proiezione ortogonale di un vettore su una retta (affine); equazioni parametriche e cartesiane della retta tangente ad una circonferenza in un punto; angolo tra due rette; pendenza di una retta; tangente dell’angolo tra due rette in funzione della loro pendenza. Soluzioni approssimate di sistemi lineari. Polinomio approssimante di dati statistici. Retta di regressione.

Settimana 12

Mar 14.12 Esempi di sfruttamento del formalismo del prodotto scalare: calcolo dell’equazione dell’asse di un segmento e delle equazioni delle bisettrici di una coppia di rette (non parallele). Definizione di isometria in uno spazio euclideo. Esempio: le traslazioni. Solo enunciato del fatto che un’isometria che fissa lo 0 è lineare. Ogni isometria è composizione di una isometria lineare e di una traslazione. Isometrie lineari in \(\mathbb R^n\) e definizione di matrici ortogonali. Una matrice ortogonale ha per colonne una base ortonormale e ha per determinante 1 o -1. Isometrie lineari in \(\mathbb R^2\): matrici di rotazione (ricavate) e matrici di riflessione ortogonale (solo enunciate), osservando che le une hanno determinante 1 e le altre -1. Esercizi sul calcolo di rotazioni e riflessioni di un punto attorno a un altro o rispetto una retta. Definizione di prodotto vettore in \(\mathbb R^3\). Calcolo delle sue coordinate mediante i cofattori. Definizione di prodotto misto. Proprietà del prodotto vettore (antisimmetria, bilinearità, assenza dell’associatività, è nullo se e solo se i vettori sono lin. dip., è ortogonale al sottospazio generato dai due vettori, ha norma uguale all’area di base del parallelogramma, ha la stessa orientazione della base canonica data dalla regola della mano destra). Utilizzo del prodotto vettore per il calcolo dell’area di un triangolo in \(\mathbb R^3\).

Mer 15.12 Utilizzo del prodotto vettore per il calcolo di un vettore normale ad un piano in forma parametrica e per il calcolo di un vettore direttore di una retta in forma cartesiana. Distanza punto-piano e retta-retta utilizzando il prodotto vettore. Definizione di endomorfismo lineare diagonalizzabile. Rette invarianti o assi di simmetria. Un endomorfismo lineare di \(V\) è diagonalizzabile se e solo se ammette assi di simmetria che decompongono \(V\) in somma diretta. Una matrice \(A\) è diagonalizzabile se e solo se esiste una matrice invertibile \(B\) ed una matrice diagonale \(D\) tali che \(B^{-1}AB=D\). La matrice \(B\) ha per colonne una base diagonalizzante di \(S_A\). Una matrici di rotazione \(R_\theta\) è diagonalizzabile su \(\mathbb{R}\) se e solo se \(\theta=k\pi\) per qualche \(k\in\mathbb Z\). Una matrice di riflessione ortogonale è diagonalizzabile. Autovalori ed autovettori. Una matrice triangolare superiore ammette sempre un autovettore. Le matrici diagonali sono diagonalizzabili. Definizione della funzione \(p_A(x)\). Spettro di una matrice \(A\). Gli autovalori di \(A\) sono gli zeri della funzione \(p_A(x)\).

Gio 16.12 Data una matrice \(A\in Mat_{n\times n}(\mathbb K)\), la funzione \(p_A(x)\) è un polinomio monico di grado \(n\); il suo termine noto è \((-1)^n det(A)\) e il coefficiente di \(x^{n-1}\) è \(-Tr(A)\). Il polinomio \(p_A(x)\) si chiama il polinomio caratteristico di \(A\). Formula del polinomio caratteristico per matrici \(2\times 2\) e \(3\times 3\) in termini della traccia e del determinante. Il polinomio caratteristico è invariante per cambiamenti di base. Richiami del teorema fondamentale dell’algebra. Molteplicità algebrica degli autovalori di una matrice a coefficienti in \(\mathbb Q\), \(\mathbb R\) o \(\mathbb C\). La somma delle molteplicità algebriche è uguale ad \(n\). Molteplicità geometrica di un autovalore. Teorema: la molteplicità geometrica è minore o uguale della molteplicità algebrica. Discussione di una matrice quadrata reale avente un autovalore complesso ma non reale: tale autovalore non può avere un autovettore reale e la matrice non è diagonalizzabile su \(\mathbb R\). Enunciato del teorema di caratterizzazione delle matrici diagonalizzabili.

Ven 17.12 Definizione di matrici ortogonalmente diagonalizzabili. Esempi: le matrici diagonali e la matrice di riflessione ortogonale attraverso una retta di \(\mathbb R^2\). Richiami sulle matrici ortogonali. Enunciato del Teorema spettrale reale. Dimostrazione del teorema spettrale reale: una matrice simmetrica ha autovalori reali, l’ortogonale di un autospazio di una matrice simmetrica è invariante, autospazi relativi ad autovalori distinti di una matrice simmetrica sono ortogonali. Una matrice simmetrica è combinazione lineare delle proiezioni ortogonali sui suoi autospazi con coefficienti i relativi autovalori (Decomposizione spettrale di una matrice simmetrica).

Settimana 13

Mar 21.12 Traccia e determinante come somma e prodotto degli autovalori. Calcolo delle potenze di una matrice diagonalizzabile. Teorema di Cayley-Hamilton (solo enunciato). Calcolo delle potenze e dell’inversa di una matrice usando il teorema di Cayley-Hamilton. Forme quadratiche in \(n\) variabili. Segnatura di una forma quadratica. Coniche. Classificazione affine e metrica delle coniche. Cambio di base affine e metrico per ridurre una conica a forma canonica. (Appunti)

Mer 22.12 Esercizi di riepilogo. Foglio 1 di esercizi tipo esame, Foglio 2 di esercizi tipo esame