Ingegneria civile

Diario delle lezioni

A. A. 2021/2022

Tutti i risultati elencati sono stati dimostrati a lezione, se non diversamente specificato

Settimana 1

Lun 27.09 Presentazione del corso. Definizione ed esempi di campo. Il campo \(\mathbb{C}\) dei numeri complessi. Il modulo di un numero complesso. Esercizi A.1 a pagina 288 del libro di testo. Rappresentazione dei numeri complessi sul piano cartesiano.

Mar 28.09 Coniugato di un numero complesso. Il coniugio è lineare e rispetta il prodotto. Interpretazione geometrica del coniugio sul piano complesso. Discussione degli Esercizi A.5 e A.6, pag. 189 del libro di testo. Funzione tra due insiemi. Interpretazione di \(\mathbb{R}^2\) come l’insieme delle funzioni dall’insieme \(\{1,2\}\) ad \(\mathbb{R}\).

Mer 29.09 Discussione di uno dei punti dell' Esercizio A.5 sui numeri complessi. Esempi di funzioni: il prodotto cartesiano \(X\times X\) come insieme delle funzioni da \(\{1,2\}\) a \(X\), stessa cosa per le \(n\)-uple ordinate. Definizione di \(\mathbb{Q}^n\), \(\mathbb{R}^n\), \(\mathbb{C}^n\) e interpretazione come insiemi di funzioni. La moltiplicazione per l’unità immaginaria come rotazione di \(\pi/2\) in senso anti-orario attorno all’origine, la moltiplicazione per un numero complesso ed interpretazione geometrica, la somma per un numero complesso come traslazione del piano complesso. Somma e prodotto per scalari in \(\mathbb{R}^2\).

Gio 30.09 Teorema fondamentale dell’algebra (senza dimostrazione). Definizione assiomatica di spazio vettoriale. Esempi di spazi vettoriali: \(\mathbb K\) è uno spazio vettoriale su \(\mathbb K\); \(\mathbb C\) è uno spazio vettoriale su \(\mathbb R\); definizione di \(\mathbb K^n\), \(\mathbb K^Y\) dove \(Y\) è un insieme qualsiasi, \(Mat_{n \times m}(\mathbb K)\): sono tutti spazi vettoriali su \(\mathbb K\). Definizione di combinazione lineare e esempi di combinazioni lineari fra due vettori.

Settimana 2

Lun 04.10 Esempi di combinazioni lineari in \(\mathbb C\) e in \(Mat_{3 \times 2}\). Sistemi lineari come problema inverso della costruzione di una combinazione lineare. Matrice associata a un sistema lineare. L’uso di 3 operazioni è sufficiente per risolvere il sistema lineare (negli esempi visti). Codice MATLAB per inserire una matrice e per calcolare combinazioni lineari fra matrici. I polinomi \(\mathbb K[x]\) formano uno spazio vettoriale ed esempi di combinazione lineare in \(\mathbb K[x]\). Definizione di \(Span\) ed esempi in \(\mathbb C\) e in \(\mathbb K^n\); definizione dei vettori \(e_i\) in \(\mathbb K^n\). Definizione dei vettori geometrici del piano e dello spazio; definizione di somma e prodotto con un numero reale di vettori geometrici: \(\mathcal V_O^2\) è uno spazio vettoriale su \(\mathbb R\) (senza dimostrazione).

Mar 05.10 Combinazioni lineari in \(\mathcal V_O^2\). Segmento fra i punti \(A\) e \(B\) come insieme delle combinazioni convesse di \(\overrightarrow{A}\) e \(\overrightarrow{B}\); retta fra i punti \(A\) e \(B\) come insieme delle combinazioni affini di \(\overrightarrow{A}\) e \(\overrightarrow{B}\). Definizione di sottospazio vettoriale. Esempi in in \(\mathbb K[x]\), in \(\mathbb K^n\), in \(\mathbb R\). Lo \(Span\) è sempre un sottospazio vettoriale. Un sottospazio vettoriale è uno spazio vettoriale. Generatori di uno \(Span\) e di uno spazio o sottospazio vettoriale; il sottospazio generato \(\langle S \rangle\) da un insieme \(S\) di vettori. Descrizione di tutti i sottospazi vettoriali di \(\mathcal V_O^2\). Intersezione e somma di sottospazi.

Il sottospazio somma \(W_1 + W_2\) è il sottospazio generato dall’unione \(W_1 \cup W_2 \) (accenno di dimostrazione). Lemma di scambio, esempio di applicazione, dimostrazione solo nell’esempio proposto. Applicazione del lemma di scambio per vedere che un insieme di 3 polinomi di grado minore di 3 generano \(\mathbb K[x]_{\leq 2}\) se hanno tutti gradi differenti.

Mer 06.10 Ancora sul lemma di scambio. Esempi ed esercizi: generatori non standard di \(\mathbb{C}^3\); generatori di \(\mathcal{V}_O^2\). Costruzione geometrica di un insieme di generatori di \(\mathcal{V}_O^2\).

Gio 07.10 Esempi di soluzione di sistemi lineari omogenei. Descrizione di sottospazio vettoriale in \(\mathbb K^n\) come insieme di soluzioni di un sistema lineare omogeneo (forma cartesiana) o come \(Span\) di un insieme finito di vettori (forma parametrica). Correzione dell’esercizio \(\lambda v = 0\) se e solo se \(\lambda = 0\) o \(v = 0\). Definizione di relazione di dipendenza lineare e definizione di insieme di vettori linearmente indipendenti. Esempi di relazioni di dipendenza lineari e insiemi indipendenti di uno o due vettori in spazi qualunque, in \(\mathcal V_O^2\), \(\mathcal V_O^3\), funzioni reali di variabile reale.

Settimana 3

Lun 11.10 Lemma di dipendenza lineare. Lemma di indipendenza lineare. Un insieme di generatori è linearmente dipendente se è “ridondante”, ed è linearmente indipendente se è “essenziale”. Dato un insieme finito \(\mathcal{T}=\{v_1,\cdots,v_k\}\) di vettori di uno spazio vettoriale \(V\) su un campo \(\mathbb K\) abbiamo definito la funzione \(G_\mathcal{T}:\mathbb{K}^k\rightarrow V\) definita come \(G_\mathcal T(X)=x_1v_1+\cdots+x_k v_k\) ed abbiamo dimostrato che tale funzione è iniettiva se e solo \(\mathcal T\) è linearmente indipendente. Teorema fondamentale sull’indipendenza lineare. Comandi MATLAB: \(\mathtt{sym}\) e \(\mathtt{rref}\).

Mar 12.10 Richiami. Definizione di base. Definizione di dimensione. Definizione di spazio vettoriale finitamente generato. Algoritmo di generazione di basi. Ogni spazio vettoriale finitamente generato ammette una base. Basi canoniche o standard di \(\mathbb K^n\) e di \(\mathbb K[x]_{\geq n}\), esempi di basi di tutti gli spazi vettoriali visti, esempi di spazi vettoriali che non ammettono una base. Esercizio 1.3.12 del libro di testo.

Coordinate di un vettore in una base. Definizione della funzione ‘‘coordinate in una base \(\mathcal B\)’’ \(F_{\mathcal B}:V\rightarrow\mathbb{K}^n\) che ad un vettore associa le sue coordinate nella base \(\mathcal{B}\). \(\mathcal{B}\) è una base se e solo se la funzione \(G_\mathcal{B}\) è iniettiva e suriettiva. \(\mathcal{B}\) è una base se e solo se la funzione \(F_\mathcal{B}\) è iniettiva e suriettiva. Le funzioni \(F_\mathcal{B}\) e \(G_\mathcal{B}\) sono una l’inversa dell’altra. Teorema del completamento ad una base. Esercizio 1.2.7 del libro di esercizi.

Mer 13.10 Svolgimento del seguente esercizio: completare la base dell’esercizio Esercizio 1.2.7 del libro di esercizi ad una base di \(\mathbb R^5\). Formula di Grassmann. Cenni alla dimostrazione della formula di Grassmann.

Gio 14.10 Definizione di somma diretta di sottospazi e di supplementare o complementare di sottospazio. Esempi di supplementari in \(\mathbb K^2\) e \(\mathcal V_O^2\). Trasposta di una matrice, matrici simmetriche e antisimmetriche. Lo spazio delle matrici quadrate si decompone in somma diretta di simmetriche e antisimmetriche. Correzione di un esercizio sull’indipendenza lineare. Esercizio sulla costruzione di basi e sulla funzione delle coordinate in quelle basi.

Settimana 4

Lun 18.10 Definizione di funzione lineare. Esempi e controesempi: funzione identità; tra le costanti c’è solo la funzione nulla; da \(\mathbb R\) a \(\mathbb R\), ci sono solo le mappe della forma \(f(x) = \lambda x\); la trasposta è lineare; estrarre un coefficiente da una matrice è un’operazione lineare; la valutazione di un polinomio o di una funzione in un punto fissato \(a\) è lineare. Combinazione lineare di funzioni lineari è una funzione lineare. Definizione di traccia: è lineare. La funzione \(G_\mathcal B\) è lineare. L’inversa di una funzione lineare (invertibile) è lineare, dunque la funzione \(F_\mathcal B\) di coordinate nella base \(\mathcal B\) è lineare. Una funzione è lineare se e solo se preserva le combinazioni lineari. Studio dell’iniettività di una funzione lineare; definizione di nucleo; il nucleo è un sottospazio del dominio. Definizione di immagine; l’immagine è un sottospazio del codominio (senza dimostrazione).

Mar 19.10 Correzione degli esercizi 1 e 2 della settimana 2. Esercizio sulla formula di Grassmann. Richiami sulle funzioni lineari. Ogni funzione lineare è univocamente determinata dai valori che assume su una base. Esercizio a pagina 19 degli appunti “Applicazioni lineari”. Comando MATLAB \(\mathtt{syms}\).

Formula della dimensione. La dimostrazione illustra come trovare una base dell’immagine. Esempio. Interpretazione della forma cartesiana di un sottospazio vettoriale come nucleo di un’applicazione lineare. Interpretazione della forma parametrica di un sottospazio vettoriale come immagine di un’applicazione lineare.

Mer 20.10 Esempi di funzioni lineari: il coniugio, la proiezione su un sottospazio vettoriale lungo un suo complementare. Ogni \(\mathbb K\)-spazio vettoriale \(V\) di dimensione \(n\) è isomorfo a \(\mathbb K^n\) tramite l’isomorfismo lineare \(F_\mathcal B\), per ogni scelta di una base \(\mathcal B\) di \(V\). Inizio della descrizione delle funzioni lineari da \(\mathbb K^n\) a \(\mathbb K^m\) (abbiamo discusso il caso \(m=n=1\) ed il caso \(m=2\) ed \(n=1\)).

Gio 21.10 Data una matrice \(A\) di taglia \(m\times n\) abbiamo definito la funzione moltiplicazione a sinistra per \(A\) come la funzione \(S_A:\mathbb{K}^n\rightarrow \mathbb{K}^m\) definita come \(S_A(X)=x_1A^1+\cdots+x_nA^n\). Le funzioni lineari da \(\mathbb{K}^n\) a \(\mathbb{K}^m\) sono tutte e sole moltiplicazioni a sinistra per una matrice \(m\times n\). Esempi di funzioni \(S_A\). Definizione di nucleo, immagine e rango di una matrice. Comandi MATLAB \(\mathtt{rk}\) e \(\mathtt{null}\). Esercizi su nucleo, immagine e rango di una matrice. Correzione dell’esercizio 5 della settimana 3 (per mancanza di tempo non abbiamo completato la correzione però la soluzione si trova nella pagina web e su e-learning).

Settimana 5

Lun 25.10 La funzione identità \(Id_X\) su un insieme \(X\). Composizione di funzioni. La composizione di funzioni lineari è lineare. In particolare la composizione di due funzioni lineari, una da \(\mathbb{K}^n\) a \(\mathbb{K}^m\) e l’altra da \(\mathbb{K}^m\) a \(\mathbb{K}^h\) è lineare. Quindi se \(A\in Mat_{m\times n}(\mathbb{K})\) e \(B\in Mat_{h\times m}(\mathbb{K})\) la funzione composta \(S_B\circ S_A:\mathbb{K}^n\rightarrow\mathbb{K}^h\) è la moltiplicazione a sinistra per una matrice \(C\), ovvero \(S_B\circ S_A=S_C\). La matrice \(C\) si chiama il prodotto righe per colonne della matrice \(B\) per la matrice \(A\) e si denota con \(C=BA\). Descrizione delle colonne di \(C\). Descrizione delle componenti di \(C\). Inversa destra ed inversa sinistra di una funzione. Se una funzione ammette un’inversa destra allora è suriettiva. Se una funzione ammette un’inversa sinistra allora è iniettiva. Una funzione \(f:X\rightarrow Y\) è invertibile se ammette sia inversa destra che inversa sinistra. In questo caso le due inverse coincidono e sono uniche e si chiamano l’inversa di \(f\) e si denotano con \(f^{-1}\). Una matrice \(A\in Mat_{m\times n}(\mathbb{K})\) si dice invertibile se \(S_A\) è invertibile. Se \(A\) è invertibile allora \(m=n\). Matrice identità.

Mar 26.10 Come costruire nuove funzione lineari: 1) combinazioni lineari, 2) composizione, 3) restrizione. Abbiamo definito lo spazio vettoriale \(\mathcal{L}(V,W)\) delle funzioni lineari da un \(\mathbb{K}\)-spazio vettoriale \(V\) ad un \(\mathbb{K}\)-spazio vettoriale \(W\); in particolare abbiamo rivisto che una combinazione lineare di una funzione lineare è lineare. Abbiamo richiamato la definizione di composizione di due funzioni ed il fatto che la composizione di due funzioni lineari è lineare. Abbiamo definito la restrizione di una funzione lineare ad un sottospazio vettoriale ed abbiamo osservato che è lineare. Abbiamo definito la derivata e l’integrale di polinomi come esempi di funzioni lineari. Abbiamo definito la funzione valutazione di un polinomio in un polinomio. Abbiamo dimostrato la formula per calcolare il rango di una funzione composta: \(rg(g\circ f)=rg(f)-dim (Ker(g)\cap Im(f))\). Abbiamo poi cominciato a parlare di matrici elementari concludendo con la definizione della matrice elementare \(P_{i,j}\).

Nella terza ora, abbiamo definito le altre due matrici elementari \(D_i(\lambda)\) e \(F_{i,j}(c)\). Abbiamo poi definito le colonne dominanti di una matrice ed abbiamo osservato che le colonne dominanti formano una base dell’immagine della matrice.

Mer 27.10 Abbiamo richiamato il fatto che operare sulle righe di una matrice mediante una delle tre operazioni elementari vuol dire moltiplicare a sinistra per una matrice, che si chiama matrice elementare. Per cui le operazioni elementari sulle righe di una matrice di taglia \(m\times n\) sono endomorfismi lineari dello spazio vettoriale \(Mat_{m\times n}\). In particolare se una matrice \(B\) è ottenuta da una matrice \(A\) mediante successive operazioni elementari sulle righe, allora esiste una matrice \(T\) tale che \(B=TA\). Questa matrice \(T\) è il prodotto delle matrici elementari che corrispondono alle operazioni usate per trasformare \(A\) in \(B\). Poichè le matrici elementari sono invertibili, ed il prodotto di matrici invertibili è invertibile, ne segue che \(T\) è invertibile. Usando questo, abbiamo dimostrato che le colonne dominanti di \(A\) si trovano nella stessa posizione delle colonne dominanti di \(B\). Deduciamo che per trovare una base dell’immagine di \(A\), bisogna trovare una matrice \(B\) ottenuta da \(A\) mediante operazioni elementari sulle righe, e tale che le sue colonne dominanti siano facili da determinare. Abbiamo quindi definito le matrici a scala. Esse hanno la proprietà che le loro colonne dominanti sono evidenti.

Gio 28.10 Notazione tensoriale \(e_i\otimes e_j\) per gli elementi della base standard dello spazio vettoriale delle matrici \(m\times n\). In particolare, \(\dim Mat_{m\times n}(\mathbb{K})=mn\). Pivot di una matrice. Definizione di matrice a scala usando i pivot. Definizione di matrici equivalenti per righe. Algoritmo di Gauss per trovare una matrice a scala equivalente per righe ad una matrice data. Utilizzo dell’algoritmo di Gauss per determinare le colonne dominanti di una matrice. In particolare, calcolo di una base dell’immagine di una matrice. Definizione di matrice a scala ridotta. Data una matrice \(A\) esiste un’unica matrice a scala ridotta equivalente per righe ad \(A\); tale matrice si denota con rref(A). Comando MATLAB \(\mathtt{rref}\). Soluzioni-base di un sistema omogeneo e calcolo di una base del nucleo di una matrice. La forma a scala ridotta di una matrice invertibile è la matrice identità. Se \(A\in Mat_{n\times n}\) è invertibile, esiste una matrice \(T\in Mat_{n\times n}(\mathbb{K})\) tale che \(T\) è prodotto di matrici elementari e \(TA=\mathbb{1}_n\); dal fatto che le matrici elementari sono invertibili, si ottiene che anche \(AT=\mathbb{1}_n\). Quindi \(T=A^{-1}\). In particolare, l’inversa di una matrice invertibile è prodotto di matrici elementari. La lezione si è conclusa con un esercizio sulle matrici elementari.

Settimana 6

Mar 02.11 Una matrice quadrata è invertibile se e solo se ammette inversa destra se e solo se ammette inversa sinistra. Una matrice è invertibile se e solo se la sua forma a scala ridotta è l’identità. Algoritmo di inversione di Gauss-Jordan: \((A|\mathbb{1})\rightsquigarrow (\mathbb{1}|A^{-1})\). Data una matrice \(A\) di taglia \(2\times 2\), abbiamo denotato il numero \(a_{11}a_{22}-a_{12}a_{21}\) come \(det(A)\) e lo abbiamo chiamato il determinante di \(A\); abbiamo quindi dimostrato che una tale \(A\) è invertibile se e solo se \(det(A) =\not 0\). In questo caso abbiamo ottenuto una formula per calcolare \(A^{-1}\) in funzione delle componenti di \(A\). Data una base \( \mathcal{B}=\{v_1,\cdots, v_n\}\) di \(\mathbb{K}^n\) la funzione \(F_{\mathcal{B}}:\mathbf{K}^n\rightarrow\mathbf{K}^n\) è lineare ed invertibile, e quindi ci siamo chiesti come sia fatta la matrice \(A\) tale che \(F_\mathcal{B}=S_A\): abbiamo osservato che la funzione inversa \(G_\mathcal{B}\) di \(F_\mathcal{B}\) non è altro se non la moltiplicazione a sinistra per la matrice \(B=(v_1|\cdots|v_n)\) che ha per colonne gli elementi della base \(\mathcal{B}\) ed abbiamo quindi dedotto che \(F_\mathcal{B}=S_{B^{-1}}\).

Nella terza ora abbiamo svolto un esercizio che richiedeva di verificare che tre vettori dati di \(\mathbb{R}^3\) formano una base, e calcolare le coordinate di un vettore in questa base; abbiamo quindi calcolato la matrice inversa della matrice che ha per colonne i vettori di quella base con l’algoritmo di inversione. Abbiamo poi richiamato con vari esempi come si calcola il rango, una base del nucleo ed una base dell’immagine di una matrice, con l’idea di generalizzare queste tecniche al caso di applicazioni lineari qualunque.

Mer 03.11 Matrice associata ad un’applicazione lineare \(f: V \rightarrow W\) in una base \(\mathcal{B}_V\) di \(V\) ed in una base \(\mathcal{B}_W\) di \(W\); una base del nucleo di \(f\) si ottiene applicando \(F_{\mathcal{B}_V}^{-1}\) ad una base del nucleo di tale matrice; una base dell’immagine di \(f\) si ottiene applicando \(F_{\mathcal{B}_W}^{-1}\) ad una base dell’immagine di tale matrice; il rango di \(f\) è uguale al rango di tale matrice. Date due basi \(\mathcal{B}_1\) e \(\mathcal{B}_2\) di uno spazio vettoriale \(V\) la matrice associata all’identità nelle basi \(\mathcal{B}_1\) in partenza e \(\mathcal{B}_2\) in arrivo si chiama la matrice di cambiamento di base dalla base \(\mathcal{B}_2\) alla base \(\mathcal{B}_1\). Abbiamo svolto due esercizi presi dal libro su questi argomenti.

Gio 04.11 Abbiamo definito la nozione di applicazioni lineari simili (nel libro sono chiamate “equivalenti”) ed enunciato il teorema di classificazione delle applicazioni lineari: due applicazioni lineari da uno spazio vettoriale di dimensione \(n\) ad uno spazio vettoriale di dimensione \(m\) sono simili se e solo se hanno lo stesso rango. Abbiamo poi svolto un esercizio sul calcolo dell’inversa di una matrice \(3\times 3\) complessa. Abbiamo poi svolto l’esercizio 2.2.7 del libro di testo. Abbiamo svolto un esercizio sulla matrice associata ad una composizione di applicazioni lineari. Abbiamo svolto un esercizio sulla similitudine di tre matrici \(2\times 3\).

Settimana 7

Lun 08.11 Funzioni dalle matrici quadrate al campo; tali funzioni sono funzioni delle righe o delle colonne. Definizioni di funzione multilineare sulle righe e di funzione alternante sulle righe. Una funzione multilineare è alternante se e solo se scambiando due variabili la funzione cambia segno. Funzioni multilineari ed alternanti sulle matrici \(2\times 2\): esse sono multipli del determinante \(2\times 2\). Teorema: per ogni \(n\geq 1\) esiste un’unica funzione multilineare ed alternante sulle righe delle matrici \(n\times n\) che vale \(1\) sulla matrice identità. Tale funzione si chiama il determinante (\(n\times n\)). Dimostrazione dell’unicità di tale funzione. Determinante delle matrici elementari.

Mar 09.11 Dimostrazione dell’esistenza del determinante: per una matrice \(A\) di taglia \(n\times n\) abbiamo definito la matrice \(A_{i,1}\) come la matrice ottenuta da \(A\) togliendo la riga \(i\) e la colonna \(1\); dopodiché abbiamo definito la funzione \(d^{(n)}(A)=\sum (-1)^{i+1}a_{i1}d^{(n-1)}(A_{i,1})\) per \(n\geq 2\) e \(d^{(1)}\) come l’identità. Abbiamo dimostrato che \(d^{n}: Mat_{n\times n}(\mathbb{K})\rightarrow \mathbb{K}\) è multilineare ed alternante sulle righe e vale \(1\) sull’identità, se \(d^{(n-1)}\) ha le stesse proprietà. Esempio 3.2.24 dal libro di testo di calcolo del determinante e discussione sulla complessità computazionale di questa definizione. Come corollario della dimostrazione del teorema otteniamo che \(det(A)\neq0\) se e solo se \(rg(A)\) è massimo se e solo se \(A\) è invertibile. Il determinante di una matrice a scala è il prodotto degli elementi sulla diagonale. Enunciato del teorema di Binet: \(det(AB)=det(A)det(B)\). Comando MATLAB: \(\mathtt{det}\).

Dimostrazione del teorema di Binet. Discussione su matrici simili e sulla forma canonica di una matrice; discussione dell’esercizio 4 della settimana 6. Discussione dell’esercizio 3 della settimana 6.

Mer 10.11 Abbiamo definito lo spazio delle righe ed il rango-riga di una matrice. Abbiamo parlato di operazioni elementari sulle colonne di una matrice ed abbiamo osservato che esse corrispondono a moltiplicare a destra per le matrici elementari. Abbiamo dimostrato che \(rg(A)=rg(A^t)=Rrg(A)\). Abbiamo poi dimostrato che per ogni \(n\geq1\) esiste un’unica funzione dallo spazio delle matrici \(n\times n\) al campo che sia multilineare e alternante sulle colonne e che valga uno sulla matrice identità. Abbiamo poi dimostrato che \(det(A^t)=det(A)\) ed abbiamo quindi concluso che il determinante è l’unica funzione multilineare e alternante sulle colonne che vale uno sulla matrice identità. Per calcolare il determinante possiamo quindi operare sulle colonne.

Gio 11.11 Riepilogo sul determinante. Determinante dell’inversa. Esempi su come calcolare il determinante usando le operazioni elementari sulle righe e sulle colonne. Abbiamo enunciato la formula di Laplace per lo sviluppo del determinante lungo le righe o le colonne di una matrice. Abbiamo poi calcolato diversi determinanti usando le operazioni elementari sulle righe e le colonne e lo sviluppo di Laplace.

Settimana 8

Lun 15.11 Rilevazione OPIS. Sistemi di equazioni lineari e loro interpretazione matriciale. Teorema di Rouché-Capelli. Teorema di struttura delle soluzioni di un sistema lineare. (Appunti)

Mar 16.11 Richiami sui sistemi lineari. Comandi MATLAB: \(\mathtt{sym(‘x’,[n,1])}\), \(\mathtt{eq1=..==b}\), \(\mathtt{equationsToMatrix}\), \(\mathtt{A}\)\\(\mathtt{b}\), \(\mathtt{null}\). Esercitazione in aula: gli studenti hanno risolto un sistema lineare con parametro in 30 minuti; dopodichè l’esercizio è stato corretto dal docente. Sistemi quadrati; un sistema quadrato \(AX=b\) ammette un’unica soluzione se e solo se \(A\) è invertibile; in questo caso l’unica soluzione è \(X_0=A^{-1}b\).

Definizione di co-fattore \((i,j)\) di una matrice quadrata. Definizione di matrice dei co-fattori o aggiunta di una matrice quadrata. Formula dell’inversa tramite la matrice aggiunta. Formula di Cramer per la soluzione di un sistema quadrato non-singolare.

Mer 17.11 Definizione di sottomatrice, di minore e di minore orlato. Se una matrice \(A\) contiene un minore di ordine \(k\) diverso da zero allora \(rg(A)\geq k\). Teorema dei minori orlati (senza dimostrazione). Comando MATLAB: \(\mathtt{A([…],[…])}\).

Gio 18.11 Richiami sul teorema dei minori orlati. Matrici a blocchi. Prodotto di matrici a blocchi. Matrici triangolari a blocchi. Il determinante di una matrice quadrata triangolare a blocchi quadrati è il prodotto dei determinanti dei blocchi diagonali (senza dimostrazione). Polinomio interpolatore. Matrice di Vandermonde e suo determinante. Esempi ed esercizi sulla matrice di Vandermonde e qualche sua applicazione.

Settimana 9

Lun 22.11 Cenni ai sistemi lineari associati a circuiti elettrici. Equazioni parametriche e cartesiane di sottospazi vettoriali di \(\mathbb{K}^m\). Come trovare le equazioni cartesiane di un sottospazio vettoriale di cui si conoscono le equazioni parametriche (ovvero una base). La funzione lineare \(D_A\) moltiplicazione a destra per una matrice. Il nucleo di \(D_A\) ha come base (i coefficienti delle) equazioni che definiscono una forma cartesiana di \(Col(A)\). Il nucleo di \(D_A\) si chiama quindi lo spazio delle relazioni lineari tra le colonne di \(A\). Il nucleo di \(D_A\) è isomorfo (tramite la trasposizione) al nucleo di \(A^t\). Definizione di sottospazio affine. Sottospazio di giacitura di un sottospazio affine. Dimensione di un sottospazio affine. Definizione di punto, retta, piano ed iperpiano di uno spazio vettoriale. Definizione di sottospazi affini paralleli. Esempi ed esercizi.

Mar 23.11 Condizioni di parallelismo e di incidenza di due rette di \(\mathbb{R}^2\) in forma parametrica, nel caso in cui una sia in forma parametrica e l’altra in forma cartesiana e nel caso siano entrambe in forma cartesiana. Fascio di rette per un punto. Vettori direttori di un sottospazio affine. Vettore direttore di una retta del piano data in forma cartesiana. Retta per due punti distinti e suo vettore direttore.

Mer 24.11 Il determinante \(2\times 2\) come area orientata. Combinazioni convesse di vettori di uno spazio vettoriale reale. Inviluppo convesso. Il segmento. Il triangolo. Poligoni nel piano. Utilizzo del determinante per il calcolo dell’area di un triangolo, di un poligono e dell’inviluppo convesso di un numero finito di punti del piano.

Gio 25.11 Baricentro di n punti di uno spazio vettoriale reale, e baricentro del loro inviluppo convesso. Baricentro di un triangolo. Descrizione delle coordinate convesse dei punti di un triangolo come quozienti di aree. Condizione di allineamento di tre punti del piano. Sottospazi affini di \(\mathbb{R}^3\). Posizione reciproca di due rette: entrambe in forma parametrica, una in forma parametrica ed una in forma cartesiana, entrambe in forma cartesiana. Posizione reciproca di un piano in forma cartesiana e di una retta in forma parametrica. Condizione di allineamento di tre punti dello spazio. Fascio di piani per una retta.

Settimana 10

Lun 29.11 Definizione di forma bilineare su uno spazio vettoriale \(V\). La forma bilineare \(g_A\) su \(\mathbb{K}^n\) indotta da una matrice \(A\in Mat_{n\times n}(\mathbb{K})\). La matrice \(A_{g,\mathcal{B}}\) associata ad una forma bilineare su \(V\) in una base \(\mathcal{B}\) di \(V\). Date due basi \(\mathcal{B_1}\) e \(\mathcal{B_2}\) di \(V\) le matrici \(A_{g,\mathcal{B}_1}\) e \(A_{g,\mathcal{B_2}}\) sono legate dalla formula \(A_{g,\mathcal{B_1}}=B^tA_{g,\mathcal{B_2}}B\), dove \(B\) è la matrice di cambiamento di base dalla base \(\mathcal{B_2}\) alla base \(\mathcal{B_1}\). Definizione di matrici congruenti. Differenza tra come cambia la matrice associata ad una forma bilineare e ad un endomorfismo lineare su \(V\) quando si cambia base. Definizione di forma bilineare simmetrica. Una forma bilineare \(g_A\) su \(\mathbb{K}^n\) è simmetrica se e solo se \(A=A^t\), ovvero se \(A\) è simmetrica. La forma bilineare standard \(g_{\mathbb{1}_n}\) o prodotto puntino di \(\mathbb{K}^n\). La forma bilineare sulle matrice \(m\times n\) definita come \(g(A,B)=Tr(A^tB)\). La forma bilineare \(L^2\) sulle funzione continue da un intervallo ad \(\mathbb{R}\). La forma bilineare sui polinomi di grado al più n definita come \(g(p_1,p_2)=\sum_{i=0}^n p_1(i)p_2(i)\). Definizione di coppia di vettori ortogonali, di vettore isotropo e di insieme ortogonale (rispetto ad una forma bilineare) in uno spazio vettoriale \(V\). La base standard di \(\mathbb{K}^n\) è un insieme ortogonale rispetto al prodotto puntino ma non rispetto alla forma \(g_J\) dove \(J\) è la matrice anti-diagonale avente tutti 1 sull’anti-diagonale e zero al di fuori dell’anti-diagonale.

Mar 30.11 Definizione di ortogonale di un sottospazio vettoriale di uno spazio euclideo \((V,g)\). Un insieme ortogonale composto di vettori non isotropi è linearmente indipendente. Definizione di nucleo di una forma bilineare simmetrica. Il nucleo di \(g_A\) è uguale a \(ker(A)\). Definizione di forma bilineare simmetrica non-degenere. Restrizione di \(g\) ad un sottospazio vettoriale. Il nucleo della restrizione di \(g\) ad un sottospazio vettoriale \(U\) è uguale a \(U\cap U^\perp\). Teorema di decomposizione ortogonale. Definizione di base ortogonale. Teorema di esistenza di una base ortogonale di \((V,g)\). La dimostrazione è stata illustrata anche in un esempio nel quale si sono viste tre tecniche per trovare una base ortogonale, tra cui l’algoritmo di Gram-Schmidt.

Mer 01.12 Esercizio sulla diagonalizzazione di una forma bilineare simmetrica. Basi ortogonali notevoli: in \(Mat_{m\times n}\), la base standard \(e_i \otimes e_j\) è ortogonale rispetto alla forma traccia; in \(\mathbb K[x]_{\leq n}\), la base di polinomi di Lagrange è ortogonale rispetto la forma bilineare \(g(p_1,p_2)=\sum_{i=0}^n p_1(i)p_2(i)\). Si deduce che tali forme bilineari sono non-degeneri. Definizione di forma quadratica su uno spazio vettoriale. L’insieme dei vettori isotropi di una forma bilineare è l’insieme degli zeri della forma quadratica corrispondente. Esempio di forma quadratica su \(\mathbb R^2\) per la quale gli zeri giacciono nell’unione di due sottospazi di dimensione 1. Enunciato del teorema di Sylvester di classificazione delle forme bilineari simmetriche su \(\mathbb K = \mathbb C\) e \(\mathbb K = \mathbb R\).

Gio 02.12 Definizione di segnatura di una forma bilineare simmetrica reale. Definizione di forme definite positive o negative, forme semidefinite positive o negative, forme indefinite. Dimostrazione dell’esistenza di una base di Sylvester. Dimostrazione dell’invarianza della segnatura per cambio di base. Esercizio di calcolo della segnatura e di una base di Sylvester di una forma su \(\mathbb R^3\). Definizione di spazio euclideo e primi esempi; definizione di norma di un vettore, di versore, di base ortonormale in uno spazio euclideo. Algoritmo di ortogonalizzazione di Gram-Schmidt. Esercizio sull’ortogonalizzazione di Gram-Schmidt. Esercizio sulla diagonalizzazione di una forma quadratica.

Settimana 11

Lun 06.12 Presentazione del corso di laurea in ingegneria civile da parte del Presidente, Prof. Luigi Callisto. Esercizio su come trovare una base ortogonale rispetto ad una forma bilineare in \(\mathbb{R}^3\). Sottomatrici e minori principali. Criterio di Sylvester su come stabilire se una matrice simmetrica è definita positiva (senza dimostrazione). Richiami su spazi vettoriali euclidei. Definizione di prodotto scalare nello spazio dei vettori geometrici del piano (senza dimostrazione). Disuguaglianza di Cauchy-Schwarz in uno spazio euclideo qualunque (senza dimostrazione). Definizione di coseno di un angolo tra due vettori di uno spazio euclideo.

Mar 07.12 Definizione di proiezione ortogonale su un sottospazio vettoriale di uno spazio euclideo. Definizione di distanza tra due sottoinsiemi di uno spazio euclideo. Distanza punto-retta con metodi analitici. Teorema: La distanza tra un punto ed un sottospazio vettoriale è uguale alla norme della differenza tra il punto e la sua proiezione ortogonale sul sottospazio. Teorema di pitagora. Proiezione ortogonale su un sottospazio di \(\mathbb{R}^n\) dotato del prodotto scalare standard. Matrice di proiezione ortogonale. Teorema: per una matrice \(A\) vale \(Ker(A^tA)=Ker(A)\) e \(rg(A^tA)=rg(A)\). Calcolo della matrice di proiezione ortogonale su un piano di \(\mathbb{R}^3\) sia rispetto ad una base qualunque che ad una base ortonormale. Formula della distanza tra un punto ed un piano affine di \(\mathbb{R}^3\). Vettore normale ad un piano di \(\mathbb{R}^3\) e più in generale ad un iperpiano di \(\mathbb{R}^n\). Utilizzo del vettore normale ad un piano di \(\mathbb{R}^3\) per il calcolo della proiezione ortogonale su quel piano.

Mer 08.12 Vacanza accademica

Gio 09.12 Dimostrazione del teorema sul rango di \(A^tA\). Geometria euclidea del piano: versori; prodotto scalare standard nello spazio vettoriale dei vettori geometrici del piano e rappresentazione grafica di \(\mathbb R^2\) dotato del prodotto scalare standard; versori direttori e normali di una retta; coseni direttori; circonferenza unitaria; equazione cartesiana e parametrica di una circonferenza; rette tangenti ad una circonferenza in un punto; angolo tra due rette; pendenza di una retta; tangente dell’angolo tra due rette in funzione della loro pendenza.

Settimana 12

Lun 13.12 Esempi di sfruttamento del formalismo del prodotto scalare: calcolo dell’equazione dell’asse di un segmento e delle equazioni delle bisettrici di una coppia di rette (non parallele). Definizione di isometria in uno spazio euclideo. Esempio: le traslazioni. Solo enunciato del fatto che un’isometria che fissa lo 0 è lineare. Ogni isometria è composizione di una isometria lineare e di una traslazione. Isometrie lineari in \(\mathbb R^n\) e definizione di matrici ortogonali. Una matrice ortogonale ha per colonne una base ortonormale e ha per determinante 1 o -1. Isometrie lineari in \(\mathbb R^2\): matrici di rotazione (ricavate) e matrici di riflessione ortogonale (solo enunciate), osservando che le une hanno determinante 1 e le altre -1. Esercizi sul calcolo di rotazioni e riflessioni di un punto attorno a un altro o rispetto una retta. Definizione di prodotto vettore in \(\mathbb R^3\). Calcolo delle sue coordinate mediante i cofattori. Definizione di prodotto misto. Proprietà del prodotto vettore (antisimmetria, bilinearità, assenza dell’associatività, è nullo se e solo se i vettori sono lin. dip., è ortogonale al sottospazio generato dai due vettori, ha norma uguale all’area di base del parallelogramma, ha la stessa orientazione della base canonica). Esercizio sul calcolo della distanza fra due rette sghembe.

Mar 14.12 Definizione di endomorfismo lineare diagonalizzabile e di base diagonalizzante. Rette invarianti o assi di simmetria di un endomorfismo lineare. Un endomorfismo lineare di uno spazio vettoriale di dimensione \(n\) è diagonalizzabile se e solo ammette \(n\) assi di simmetria che decompongono lo spazio in somma diretta. Una matrice \(A\) è diagonalizzabile se e solo se esiste una matrice invertibile \(B\) ed una matrice diagonale \(D\) tali che \(B^{-1}AB=D\). La matrice \(B\) ha per colonne una base diagonalizzante di \(S_A\). Una matrici di rotazione \(R_\theta\) è diagonalizzabile su \(\mathbb{R}\) se e solo se \(\theta=k\pi\) per qualche \(k\in\mathbb Z\). Una matrice di riflessione ortogonale è diagonalizzabile. Autovalori ed autovettori. Una matrice triangolare superiore ammette sempre un autovettore. Le matrici diagonali sono diagonalizzabili. Spettro di una matrice quadrata. Polinomio caratteristico. Gli autovalori di \(A\) sono gli zeri del polinomio caratteristico di \(A\). Polinomio caratteristico di matrici \(2\times 2\) e \(3\times 3\) in funzione della traccia e del determinante. Il polinomio caratteristico è invariante per cambiamento di base. Spettro di una matrice (quadrata). Spettro reale e complesso di una matrice reale (quadrata). Un numero complesso è un autovalore di una matrice reale se e solo se è radice del suo polinomio caratteristico. Autovalori delle matrici di rotazione. Molteplicità algebrica di un autovalore. Autospazio relativo ad un autovalore. Molteplicità geometrica di un autovalore. La molteplicità geometrica di un autovalore è minore o uguale della sua molteplicità algebrica.

Mer 15.12 Richiami sulla diagonalizzazione di una matrice. Teorema: una matrice \(n\times n\) a coefficienti in un campo \(\mathbb K\) è diagonalizzabile su \(\mathbb K\) se e solo se lo spettro è contenuto in \(\mathbb K\) e la molteplicità geometrica di ogni autovalore coincide con la sua molteplicità algebrica. Se una matrice \(n\times n\) ha \(n\) autovalori distinti nel campo \(\mathbb K\) allora è diagonalizzabile su \(\mathbb K\). Lo spettro di una matrice triangolare superiore coincide con gli elementi sulla diagonale. Blocco di Jordan. Il blocco di Jordan \(n\times n\) di autovalore \(\lambda\) non è diagonalizzabile (se \(n\geq 2\)). Esercizi sulla diagonalizzazione di matrici reali \(2\times 2\) e \(3\times 3\).

Gio 16.12 Definizione di matrici ortogonalmente diagonalizzabili. Esempi: le matrici diagonali e la matrice di riflessione ortogonale attraverso una retta di \(\mathbb R^2\). Richiami sulle matrici ortogonali. Enunciato del Teorema spettrale reale. Dimostrazione del teorema spettrale reale: una matrice simmetrica ha autovalori reali, l’ortogonale di un autospazio di una matrice simmetrica è invariante, autospazi relativi ad autovalori distinti di una matrice simmetrica sono ortogonali. Una matrice simmetrica è combinazione lineare delle proiezioni ortogonali sui suoi autospazi con coefficienti i relativi autovalori (Decomposizione spettrale di una matrice simmetrica). Esercizi sul teorema spettrale. Utilizzo del prodotto vettoriale per il calcolo di aree di triangoli in \(\mathbb R^3\).

Settimana 13

Lun 20.12 Traccia e determinante come somma e prodotto degli autovalori. Calcolo delle potenze di una matrice diagonalizzabile. Teorema di Cayley-Hamilton (solo enunciato). Calcolo delle potenze e dell’inversa di una matrice usando il teorema di Cayley-Hamilton. Forme quadratiche in \(n\) variabili. Segnatura di una forma quadratica. Coniche. Classificazione affine e metrica delle coniche. Cambio di base affine e metrico per ridurre una conica a forma canonica. (Appunti)

Mar 21.12 Esercizi di riepilogo. Foglio 1 di esercizi tipo esame

Mer 22.12 Esercizi di riepilogo. Foglio 1 di esercizi tipo esame