Ingegneria civile

Diario delle lezioni

A. A. 2023/2024

Tutti i risultati elencati sono stati dimostrati a lezione, se non diversamente specificato

Settimana 1

Lun 25.09 Presentazione del corso. \(\sqrt 2\notin \mathbb Q\). Operazione su un insieme. Proprietà di un’operazione: associatività, esistenza di un elemento neutro, opposto di un elemento, commutatività. Definizione di gruppo commutativo. L’elemento neutro è unico. Definizione di campo. Somma e prodotto nell’insieme \(\mathbb{C}\) dei numeri complessi.

Mar 26.09 Notazioni: \(f:X\rightarrow Y\), \(x\mapsto f(x)\). Immagine di una funzione. Teorema: (\(\mathbb C\),+,\(\cdot\)) è un campo. Inverso di un numero complesso non-nullo. Polinomi. Notazione: \(\mathbb R [X]\). Radici di un polinomio. Teorema fondamentale dell’algebra. Algoritmo di divisione euclidea di polinomi a coefficienti reali. Un numero \(\lambda\) è radice di un polinomio \(p(x)\) se e solo se \((x-\lambda)\) divide \(p(x)\). Coniugato di un numero complesso e sue proprietà (la dimostrazione è stata data per esercizio). Parte reale e parte immaginaria di un numero complesso. Se \(\lambda\) è radice di un polinomio allora anche il suo coiniugato \(\overline{\lambda}\) è radice. Radici di un polinomio di grado \(2\).

Mer 27.09 Notazione:\(\frac{a}{b}\). Esercizi sui numeri complessi. Equazioni lineari. Tricotomia delle soluzioni di un’equazione lineare. Definizione di \(\mathbb{K}^n\). Matrice dei coefficienti e matrice completa di un’equazione lineare. Forma a scala ridotta di un’equazione lineare. Matrice dei coefficienti e matrice completa di una sistema di equazioni lineari. Comandi MATLAB: \(\texttt{sym, syms, equationsToMatrix}\).

Gio 28.09 Operazioni elementari sulle equazioni di un sistema lineare. Operazioni elementari sulle righe di una matrice. Matrici equivalenti per righe. Se due matrici sono equivalenti per righe i corrispondenti sistemi lineari sono equivalenti. Matrici a scala ridotta. Teorema: Ogni matrice è equivalente per righe ad un’unica matrice a scala ridotta (senza dimostrazione); tale matrice si chiama la sua forma a scala ridotta e si trova con il comando MATLAB: \(\texttt{rref}\). Soluzione particolare di un sistema a scala ridotta; essa si trova con il Comando MATLAB: \(\texttt{A}\backslash\texttt{b}\) oppure \(\texttt{linsolve(A,b)}\). Sistemi omogenei. Soluzioni-base di un sistema omogeneo a scala ridotta. Comando MATLAB: \(\texttt{null}\). Definizione di SPAN di matrici. Esempi.

Tutoraggio (tenuto dal docente) Esercizi su numeri complessi e sistemi lineari. Testo e soluzioni

Settimana 2

Lun 02.10 Definizione di colonne dominanti di una matrice. IL rango di una matrice è il numero delle sue colonne dominanti. Comando MATLAB: \(\texttt{rk}\). Teorema: il rango non cambia per operazioni elementari sulle righe. Il rango di una matrice a scala è uguale al numero dei suoi pivot. Algoritmo di Gauss. Teorema di Rouché-Capelli. Definizione di spazio vettoriale su un campo \(\mathbb{K}\) o \(\mathbb{K}\)-spazio vettoriale. Esercizio: le matrici \(m\times n\) a coefficienti in un campo \(\mathbb{K}\) formano un \(\mathbb{K}\)-spazio vettoriale rispetto alla somma ed alla moltiplicazione per scalari definite componente per componente.

Mar 03.10 Vettori geometrici del piano. Relazione di equivalenza tra vettori geometrici del piano. Due vettori geometrici equivalenti si dicono congruenti. Teorema di Talete. Teorema del parallelogramma. Lo spazio vettoriale \(\mathcal{V}_O^2\) dei vettori geometrici del piano applicati ad un punto \(O\). Somma e prodotto per scalari in \(\mathcal{V}_O^2\). Abbiamo dimostrato le proprietà (SV1), (SV2) e (SV4) della somma, le altre proprietà sono state lasciate per esercizio. Teorema: Lo span di due vettori geometrici che non giacciono sulla stessa retta è tutto \(\mathcal{V}_O^2\) (pagina 40 degli appunti sugli spazi vettoriali). Lo span di un vettore geometrico non-nullo \(\stackrel{\rightarrow}{OP}\) consiste di tutti i vettori geometrici \(\stackrel{\rightarrow}{OQ}\) tali che \(Q\) giace sulla retta passante per \(O\) e \(P\). [Lezione tenuta dalla co-docente]

Mer 04.10 Esempi di \(\mathbb K\)-spazi vettoriali: l’insieme \({\mathrm Mat}_{m\times n}(\mathbb{K})\) delle matrici \(m\times n\) a coefficienti in \(\mathbb{K}\), l’insieme \(\mathbb{K}^X\) delle funzioni da un insieme \(X\) a \(\mathbb K\), l’insieme \(\mathbb{K}[x]\) dei polinomi a coefficienti in \(\mathbb K\). Legge di cancellazione per la somma. Legge di annullamento del prodotto per scalari. Combinazioni lineari: definizione e primi esempi.

Gio 05.10 Geometria analitica del piano (lezione 1): definizioni di punti e rette di \(\mathbb{R}^2\) e loro equazioni cartesiane e parametriche. Essi sono tutti e soli i sottospazi affini di \(\mathbb{R}^2\). Condizioni di parallelismo e di incidenza di sottospazi affini di \(\mathbb{R}^2\) espresse senza cambiare la loro forma. Esercizi ed esempi. Appunti: da pagina 4 a pagina 11 delle note su geometria del piano.

Tutoraggio Esercizi su sistemi lineari con parametro, vettori geometrici del piano, sottospazi affini di \(\mathbb{R}^2\), combinazioni lineari.

Settimana 3

Lun 09.10 Esempi di span: soluzioni di un sistema omogeneo, span di un vettore geometrico non-nullo, span di due vettori geometrici non-allineati, generatori standard di \( \mathbb{K}^n\), generatori standard di \(\mathbb{K}[x]_{\leq n}\). Uno span è chiuso per somma e prodotto per scalari. L’unione di due span non è necessariamente chiuso per la somma (esempio in \(\mathcal{V}_O^2\)). Definizione di sottospazio vettoriale di un \(\mathbb K\)-spazio vettoriale \(V\). L’intersezione di due sottospazi vettoriali è un sottospazio vettoriale. Esempi ed esercizi.

Mar 10.10 Richiami sui sottospazi vettoriali. Una retta del piano che non passa per l’origine non è un sottospazio vettoriale di \(\mathcal{V}_O^{2}\) ma è il sottospazio affine (ovvero il traslato di un sottospazio vettoriale che si chiama il suo sottospazio di giacitura) avente come giacitura la retta parallela alla retta data e passante per \(O\). Definizione di sottospazio generato da un sottoinsieme \(\mathcal{T}\) di uno spazio vettoriale \(V\); esso si denota con \(\langle\mathcal{T}\rangle\). Teorema: Se \(\mathcal{T}\) è finito, \(\langle\mathcal{T}\rangle=\textrm{Span}(\mathcal{T})\). Lemma di scambio. Esempi ed esercizi sul lemma di scambio. L’insieme \(\mathbb{K}[x]_{\leq n}\) dei polinomi di grado minore o uguale ad \(n\) è lo span di \(n+1\) suoi polinomi aventi gradi distinti. Abbiamo poi formulato il problema che ci porterà a parlare di dipendenza/indipendenza lineare ovvero trovare il numero minimo di generatori di uno span.

Mer 11.10 Vettore-posizione di un punto del piano euclideo. Dipendenza ed indipendenza lineare. Lemma di dipendenza lineare. Lemma di indipendenza lineare. Il vettore nullo è linearmente dipendente. Un vettore non-nullo è linearmente indipendente. I generatori standard di \(\mathbb{K}^n\) e di \(\mathbb{K}[x]_{\leq n}\) sono linearmente indipendenti. Le soluzioni-base di un sistema omogeneo a scala ridotta sono linearmente indipendenti. Esercizi consigliati: 1.3.6(a), 1.3.7, 1.3.8, 1.3.9, 1.3.10, 1.3.11 del libro di testo.

Gio 12.10 Lezione annullata.

Tutoraggio Annullato

Settimana 4

Lun 16.10 Richiami. Lo spazio \(\mathrm{Col}(A)\) generato dalle colonne di una matrice \(A\). Le colonne dominanti di una matrice sono linearmente indipendenti e generano lo spazio delle sue colonne. ‘‘Essere linearmente indipendenti’’ è una proprietà chiusa per sottoinsiemi. ‘‘Esssere generatori’’ è una proprietà chiusa per soprainsiemi. Teorema fondamentale sull’indipendenza lineare e suoi corollari. Definizione di base di uno spazio vettoriale. Definizione di dimensione di uno spazio vettoriale. Esempi e non-esempi. Spazi vettoriali finitamente generati. Teorema: uno spazio vettoriale finitamente generato ammette una base. Algoritmo di generazione di basi.

Mar 17.10 Se dimensione di \(V\) è uguale ad \(n\) e \(\mathcal{B}\subset V\) è linearmente indipendente e ha cardinalità \(n\) allora \(\mathcal{B}\) è una base di \(V\). Se dimensione di \(V\) è uguale ad \(n\) e \(\mathcal{B}\subset V\) genera \(V\) e ha cardinalità \(n\) allora \(\mathcal{B}\) è una base di \(V\). Teorema del completamento. Se \(U\subseteq V\) è un sottospazio vettoriale e \(V\) ammette una base allora anche \(U\) ammette una base; in questo caso \(\textrm{dim} U\leq \textrm{dim} V\) e \(\textrm{dim} U=\textrm{dim} V\) se e solo se \(U=V\). Ogni vettore di \(V\) si scrive in maniera unica come combinazione lineare degli elementi di una base di \(V\). Coordinate di un vettore in una base. La funzione coordinate in una base. Esempi ed esercizi.

Mer 18.10 Somma di sottoinsiemi e di sottospazi vettoriali. Sottospazi affini: definizione, sottospazio di giacitura, dimensione. La somma di sottospazi vettoriali è un sottospazio vettoriale. Formula di Grassmann. Esercizi consigliati: 1.3.12, 1.3.13, 1.3.14, 1.3.15.

Gio 19.10 Prodotto scalare standard di \(\mathbb{R}^2\) e relativa norma. Versori. Versori direttori di una retta. Distanza tra due punti. Coseno dell’angolo tra due vettori non-nulli. Ortogonalità. La giacitura di una retta è l’insieme dei vettori ortogonali al vettore dei coefficienti dell’equazione della retta; essa è l’unica retta passante per l’origine e parallela alla retta data. Rappresentazione grafica di \((\mathbb{R}^2,\cdot)\). Riferimento cartesiano. La funzione coordinate nella base \((\stackrel{\rightarrow}{i},\stackrel{\rightarrow}{j})\) di \(\mathcal{V}_O^2\) preserva le distanze e gli angoli. Angoli tra due rette incidenti. Pendenza e coseni direttori di una retta.

Tutoraggio: Esercizi su: basi della somma di due sottospazi vettoriali, colonne dominanti di una matrice, basi di sottospazi vettoriali, indipendenza/dipendenza lineare, pendenza di una retta, coseni direttori di una retta, distanza e norma in \(\mathcal{V}_O^2\).

Settimana 5

Lun 23.10 Esercizi di riepilogo sugli spazi vettoriali (basi e coordinate, teorema del completamento in \(\mathbb{K}^n\) ed intersezione di due sottospazi vettoriali di \(\mathbb{K}^n\) in forma paramterica). Due vettori \(\begin{pmatrix}a\\c\end{pmatrix}, \begin{pmatrix}b\\d\end{pmatrix}\) formano una base di \(\mathbb{K}^2\) se e solo se \(ad-bc \neq 0\). Algoritmo di completamento di un insieme linearmente indipendente ad una base di \(\mathbb{K}^n\). Tecnica per il calcolo di una base dell’intersezione di due sottospazi vettoriali di \(\mathbb{K}^n\). Appunti

Mar 24.10 Definizione di funzione o applicazione lineare. Il coniugio \(\zeta:\mathbb{C}\rightarrow \mathbb{C}\) è \(\mathbb{R}\)-lineare ma non \(\mathbb{C}\)-lineare. Coniugata di una matrice complessa. La funzione ‘‘trasposta’’ che associa ad una matrice la sua trasposta è lineare. Comando MATLAB: \(\texttt{'}\). Se \(A\) è una matrice complessa in MATLAB, il comando \(A'\) restituisce la matrice coniugata e trasposta di \(A\). La funzione coordinate in una base è lineare, iniettiva e suriettiva. Somma diretta di sottospazi vettoriali. Se \(V=U\oplus W\), ogni vettore di \(V\) si scrive in maniera unica come la somma di un vettore di \(U\) e di un vettore di \(W\). Abbiamo definito la funzione ‘‘proiezione su un sottospazio lungo un suo supplementare’’ e abbiamo dimostrato che essa è una funzione lineare.

Mer 25.10 Matrici simmetriche \(\textrm{Sym}(n)\) e matrici anti-simmetriche \(\textrm{ASym}(n)\). \(\textrm{Mat}_{n\times n}=\textrm{Sym}(n)\oplus\textrm{ASym}(n)\). Notazione: \(\mathbb{K}_m\). Ad una matrice \(A\) di taglia \(m\times n\) è associata la funzione \(S_A:\mathbb{K}^n\rightarrow \mathbb{K}^m\) che si chiama “moltiplicazione a sinistra per \(A\)” e la funzione \(D_A:\mathbb{K}_m\rightarrow \mathbb{K}_n\) che si chiama “moltiplicazione a destra per \(A\)”. Le due funzioni \(S_A\) e \(D_A\) sono lineari. Abbiamo osservato che l’immagine di \(S_A\) consiste di tutti i vettori \(b\) tali che il sistema lineare che ha come matrice completa \((A|b)\) è risolubile. Pre-immagine o controimmagine di un sottoinsieme del co-dominio di una funzione. Abbiamo definito il nucleo di una funzione lineare \(f:V\rightarrow W\) e lo abbiamo denotato \(\textrm{Ker}(f)\). Abbiamo dimostrato che \(\textrm{Ker}(f)\subseteq V\) e \(\textrm{Im}(f)\subseteq W\) sono sottospazi vettoriali. La dimensione dell’immagine di \(f\) si chiama il rango di \(f\). Abbiamo poi enunciato la formula della dimensione: \(\textrm{dim}V=\textrm{dim Ker}(f)+\textrm{dim Im}(f)\) e abbiamo cominciato a dimostrarla. Esercizi consigliati: 2.1.1, 2.1.2, 2.1.3, 2.2.9, 2.2.11 del libro di testo.

Gio 26.10 Geometria analitica del piano (lezione 3): Richiami sulla pendenza di una retta e sua interpretazione geometrica. Fascio di rette per un punto. Retta per due punti distinti. Fascio di rette parallele (fascio improprio). Proiezione ortogonale di un vettore \(w\) su un vettore non-nullo \(v\); esso è il multiplo di \(v\) più vicino a \(w\). Determinante \(2\times 2\) come area orientata. Area del triangolo.

Tutoraggio: Esercizi su: applicazioni lineari, nucleo e immagine di un’applicazione lineare, somma diretta, geometria affine del piano, calcolo di aree in \(\mathbb{R}^2\). Esercizi

Settimana 6

Lun 30.10 Dimostrazione della formula della dimensione. Dato un polinomio \(q\in\mathbb{R}[x]\), la funzione valutazione in \(q\) \(\textrm{Val}_{q}:\mathbb{R}[x]\rightarrow \mathbb{R}[x]: p(x)\mapsto p(q(x))\) è lineare. Le funzioni \(e^x\), \(\textrm{cos}(x), \textrm{sen}(x)\) non sono lineari. Una funzione lineare è iniettiva se e solo se il suo nucleo è banale. Il nucleo della funzione \(S_A\) è l’insieme delle soliuzioni del sistema omogeneo che ha come matrice dei coefficienti \(A\). \(S_A(e_i)=A^i\). L’insieme delle soluzioni di un sistema lineare avente matrice completa \((A|b)\) è la preimmagine di \(b\) tramite \(S_A\). Teorema di struttura delle preimmagini di una funzione lineare.

Mar 31.10 Una base dell’immagine di \(S_A\) si ottiene completando le soluzioni-base di \(\textrm{Ker}(rref(A))\) ad una base del dominio, aggiungendo gli elementi della base canonica che corrispondono alle variabili dominanti, e poi applicando \(S_A\) a tali elementi; quindi una base dell’immagine di \(S_A\) è formata dalle colonne di \(A\) corrispondenti alle colonne dominanti di \(rref(A)\). Teorema di struttura delle soluzioni di un sistema lineare. Esempio su come si risolve un sistema lineare risolubile. Una funzione lineare è univocamente determinata dai valori che assume su una base del dominio. Combinazioni lineari di funzioni lineari sono lineari. Lo spazio vettoriale \(\mathcal{L}(V,W)\) delle funzioni lineari da \(V\) a \(W\).

Mer 01.11 Vacanza accademica.

Gio 02.11 Geometria analitica del piano (lezione 4): Insiemi ortogonali di \((\mathbb{R}^2,\cdot)\). Un insieme ortogonale è linearmente indipendente. Basi ortogonali e ortonormali di \((\mathbb{R}^2,\cdot)\). Coefficienti di Fourier. Ortogonale di un sottospazio. Vettore normale di una retta. Equazione cartesiana di una retta passante per \(P\) e avente vettore normale \(n\). Teorema di Pitagora. Raddrizzamento di una base di \(\mathbb{R}^2\) ad una base ortogonale. Decomposizione ortogonale. Punto medio di un segmento. Asse di un segmento. Bisettrice di un angolo. Circonferenza unitaria. Retta tangente ad un punto della circonferenza unitaria.

Tutoraggio: Esercizi su Applicazioni lineari (nucleo, immagine, preimmagini); formula della dimensione; teorema di struttura; ortogonalita in \(\mathbb{R}^2\) (asse, bisettrice, vettore normale, retta tangente). Esercizi

Settimana 7

Lun 06.11 Rango di una funzione lineare. Data una matrice \(A\) di taglia \(m\times n\), \(rg(A)=rg(S_A)=n-\textrm{dim Ker}(A)\). Funzioni composte. Se \(g\circ f=Id\) allora \(f\) è iniettiva e \(g\) è suriettiva. Inversa di una funzione. Se \(f\) ammette un’inversa allora essa è unica e si denota con \(f^{-1}\). Una funzione è invertibile (nel senso che ammette inversa) se e solo se è iniettiva e suriettiva. La composizione di funzioni lineari è lineare. Un isomorfismo lineare è una funzione lineare iniettiva e suriettiva. L’inversa di un isomorfismo lineare è lineare. L’identità di uno spazio vettoriale è lineare. Se \(\textrm{dim }V=\textrm{dim }W\), una funzione lineare \(f:V\rightarrow W\) è un isomorfismo se e solo se esiste una funzione \(g:V\rightarrow W\) tale che \(g\circ f=Id_V\); in questo caso \(g=f^{-1}\). Ogni \(\mathbb{K}\)-spazio vettoriale di dimensione \(n\) è isomorfo a \(\mathbb{K}^n\). Una funzione lineare è un isomorfismo lineare se e solo se manda basi in basi.

Mar 07.11 La composizione di isomorfismi lineari è un isomorfismo lineare. Le funzioni lineari da \(\mathbb{K}^n\) a \(\mathbb{K}^m\) sono tutte e sole le moltiplicazioni a sinistra per una matrice \(m\times n\); in altre parole: \(\mathcal{L}(\mathbb{K}^n,\mathbb{K}^m)\simeq \mathrm{Mat}_{m\times n}\). Prodotto righe per colonne. Matrici quadrate: matrice identità, matrici diagonali, potenze di una matrice quadrata, il prodotto di due matrici diagonali è una matrice diagonale che ha sulla diagonale il prodotto degli elementi diagonali delle due matrici. Prodotto di matrici a blocchi. Matrici invertibili. Criteri di invertibilità: un matrice quadrata \(n\times n\) \(A\) è invertibile se e solo se esiste una matrice \(B\) tale che \(AB=\mathbb{1}_n\) se solo se esiste una matrice \(B\) tale che \(BA=\mathbb{1}_n\) se solo se \(\textrm{Ker }A={0_n}\) se e solo se \(rg(A)=n\) se e solo se le colonne di \(A\) formano una base di \(\mathbb{K}^n\) se e solo se \(\textrm{rref}(A)=\mathbb{1}_n\). Algoritmo di inversione.

Mer 08.11 Esercizi sull’algoritmo di inversione. L’inversa di un prodotto di matrici invertibili è il prodotto delle inverse in ordine inverso. Utilizzo dell’algoritmo di inversione per il calcolo di matrici del tipo \(B^{-1}A\). Definizione delle matrici elementari. Operare sulle righe di una matrice con un’operazione elementare è uguale a moltiplicare a sinistra per la matrice elementare corrispondente a quella operazione elementare (la dimostrazione di questo verrà svolta lunedì). Le matrici elementari sono invertibili e l’inversa di una matrice elementare è una matrice elemnentare dello stesso tipo. Ogni matrice invertibile è prodotto di matrici elementari.

Gio 09.11 Geometria analitica del piano (lezione 5): Equazione parametrica e cartesiana della circonferenza di centro \(C\) e raggio \(r\). Retta tangente ad un punto di una circonferenza. Distanza tra un punto ed una retta sia in forma parametrica che cartesiana. Segmento. Combinazioni convesse. Inviluppo convesso. Baricentro di \(n\) punti, baricentro di un inviluppo convesso. Triangolo. Coordinate baricentriche dei punti di un triangolo. Teorema: interpretazione geometrica delle coordinate baricentriche di un punto di un triangolo. Punti notevoli di un triangolo: baricentro, circocentro ed incentro. Esercizi consigliati Punti da 1 a 5 dell’esercizio 1 dell’esame del 5 giugno 2023 pdf.

Tutoraggio: Esercizi su: prodotto tra matrici, matrici invertibili, inverse, uso dell’inversa per risolvere sistemi lineari, matrici elementari, riepilogo sulla geometria del piano. Esercizi

Settimana 8

Lun 13.11 Richiami sulle matrici elementari. Teorema: due matrici \(A\) e \(C\) sono equivalenti per righe se e solo se esiste una matrice invertibile \(B\) tale che \(C=BA\); tale matrice \(B\) è il prodotto delle matrici elementari usate per trasformare \(A\) in \(C\) e si trova con l’algoritmo \((A|\mathbb{1}_m)\rightarrow (C|B)\). Come conseguenze del teorema abbiamo dimostrato che se \(A\) e \(C\) sono equivalenti per righe allora hanno le colonne dominanti nelle stesse posizioni; in particolare hanno lo stesso rango. Poi abbiamo dimostrato che esiste un’unica matrice a scala ridotta equivalente per righe ad una data matrice \(A\); essa si denota con \(\texttt{rref}(A)\). Questionari OPIS. Soluzione di un sistema lineare non-singolare. Formula per l’inversa di una matrice \(2\times 2\).

Mar 14.11 Matrici associate ad un’applicazione lineare in una base in partenza ed in una base in arrivo. Utilizzo di questa matrice per il calcolo di una base del nucleo e dell’immagine dell’applicazione lineare. Matrice di cambiamento di base. Matrice di cambiamento di base dalla base canonica ad un’altra base: essa è molto semplice da trovare. Esempi ed esercizi.

Mer 15.11 Esercizi riepilogativi sulle applicazioni lineari. Matrice associata a \(\textrm{pr}_U^W\) nella base \(\mathcal{B}_U\cup\mathcal{B}_W\). Esercizi consigliati: Esercizio 4 dei cinque esami delle sessioni 1,2,3,4,5 dell’a.a. 2022/23.

Gio 16.11 Geometria analitica dello spazio (lezione 6): forma parametrica e cartesiana dei sottospazi affini di \(\mathbb{R}^3\), ovvero punti, rette e piani. Condizioni di incidenza e parallelismo tra essi. Rette sghembe. Posizione reciproca nei casi cartesiana-cartesiana, cartesiana-parametrica, parametrica-parametrica. Rilevazioni questionari OPIS della co-docente.

Tutoraggio: Esercizi riepilogativi sulle applicazioni lineari (matrici associate, nucleo, immagine, studio dei sistemi lineari, risoluzione di sistemi lineari non-singolari in due variabili utilizzando la formula dell’inversa di una matrice \(2x2\)), esercizi di riepilogo sulla geometria del piano, esercizi su posizione reciproca di rette di \(\mathbb{R}^3\). Esercizi

Settimana 9

Lun 20.11 Ricevimento dalle 09:30 alle 12 in aula 2E.

Lun 20.11 Forme. Definizione di forma \(n\)-multilineare su uno spazio vettoriale \(V\). Definizione di forma alternante su uno spaio vettoriale \(V\). Una forma multilineare è alternante se e solo se cambia segno se si scambiano due variabili. Forme sulle matrici \(n\times n\); esse possono essere pensate come funzioni delle righe o come funzioni delle colonne. Una forma sulle matrici \(n\times n\) è multilineare e alternante sulle righe se e solo se valgono le proprietà (R1), (R2), (R3). Se \(f\) è una forma multilineare e alternante sulle righe di una matrice, allora \(f(A)=0\) se \(A\) ha una riga nulla. Se \(f\) è una forma multilineare e alternante sulle righe di una matrice, allora \(f(A)=0\) se le righe di \(A\) sono linearmente dipendenti. Se \(f\) è una forma multilineare e alternante sulle righe di una matrice \(2\times 2\) allora \(f((a,b),(c,d))=(ad-bc)f(\mathbb{1}_2)\).

Mar 21.11 La funzione \(d^{(n)}\). Essa è multilineare e alternante sulle righe e vale \(1\) sull’identità (la dimostrazione non è stata discussa a lezione ma si trova negli appunti). In particolare esiste il determinante \(n\times n\). Unicità del determinante. Il determinante di una matrice è diverso da zero se e solo se la matrice è invertibile. Il determinante di una matrice a scala è uguale al prodotto degli elementi diagonali. Esempi di calcolo del determinante.

Mer 22.11 Operazioni elementari sulle colonne di una matrice; esse corrispondono a moltiplicare a destra per una matrice elementare. Rango-riga di una matrice. Teorema: \(rg(A)=rg(A^t)=Rrg(A)\). Teorema: \(det(A)=det(A^t)\). Il determinante è l’unica funzione multilineare e alterante sulle colonne di una matrice \(n\times n\) e che vale \(1\) sulla matrice identità. Tecnica di calcolo per il determinante: operare sulle colonne per creare molti zeri sulla prima colonna e poi usare il fatto che \(det=d^{(n)}\). Sviluppi di Laplace (senza dimostrazione). Teorema di Binet.

Gio 23.11 Geometria analitica dello spazio (lezione 7): Passaggio da equazioni parametriche a cartesiane e viceversa per sottospazi affini di \(\mathbb{R}^3\). Posizione reciproca di una retta e di un piano e di due piani. Piano passante per tre punti. Stella di piani per un punto. Fascio di piani per una retta. Struttura metrica standard di \(\mathbb{R}^3\) (prodotto scalare, norma, distanza, coseno). Rappresentazione grafica di \((\mathbb{R}^3,\cdot)\). Riferimento cartesiano standard \((i,j,k)\) ordinati con la regola della mano destra. Vettori ortogonali. Proiezione ortogonale di un vettore su un altro. Sottospazio ortogonale ad un sottospazio vettoriale. Vettore normale ad un piano. Equazione cartesiana di un piano ortogonale ad un vettore dato e passante per un punto.

Tutoraggio: Esercizi su determinante e posizione reciproca di sottospazi affini di \(\mathbb{R}^3\). Scheda degli esercizi

Settimana 10

Lun 27.11 Ricevimento dalle 09:30 alle 12 in aula 2E.

Lun 27.11 Applicazioni del determinante: la formula di Cramer per il calcolo dell’inversa di una matrice (co-fattori, matrice aggiunta), formula di Cramer per il calcolo dell’unica soluzione di un sistema lineare non-singolare; prodotto vettoriale in \(\mathbb{R}^3\): esso è l’unico vettore \(v_1\wedge v_2\in\mathbb{R}^3\) tale che \(v_1\wedge v_2\cdot X=det(v_1,v_2,X)\). Prime proprietà del prodotto vettoriale: componenti del prodotto vettoriale; direzione: esso è nullo se e solo se \(v_1\) e \(v_2\) sono linearmente dipendenti, altrimenti è un vettore normale al piano da essi generato. In particolare l’equazione cartesiana del piano generato da due vettori \(v_1,v_2\) linearmente indidpendenti è \(v_1\wedge v_2\cdot X=0\). Verso: basi equiverse e contraverse, regola della mano destra.

Mar 28.11 Determinante in uno spazio vettoriale con base fissata. Determinante \(2\times 2\) come area orientata. Determinante \(3\times 3\) come volume orientato. Norma del prodotto vettoriale e suo utilizzo per il calcolo di aree nello spazio.

Mer 29.11 Endomorfismi lineari diagonalizzabili. Autovettori e autovalori. Un vettore è un autovettore se e solo se genera una retta invariante per l’endomorfismo. Matrici diagonalizzabili. Data una base \(\mathcal{B}=(v_1,\cdots,v_n)\) di uno spazio di coordinate \(\mathbb{K}^n\), si ha \(F_\mathcal{B}=S_B^{-1}\) dove \(B=(v_1|\cdots| v_n)\). Autospazio relativo ad un autovalore di una matrice. Polinomio caratteristico. Gli autovalori sono gli zeri del polinomio caratteristico.

Gio 30.11 Descrizione qualitativa delle trasformazioni lineari del piano. Quadrato unitario e sua immagine. Isometrie del piano: le traslazioni, le rotazioni attorno all’origine, la riflessione ortogonale attraverso una retta passante per l’origine. Le rotazioni e le riflessioni sono lineari. Matrici di rotazione. Matrice di riflessione ortogonale rispetto alla pendenza. Teorema: tutte le isometrie del piano si ottengono componendo queste tre isometrie (senza dimostrazione). Esercizi (ruotare un punto attorno ad un altro punto, riflettere ortogonalmente un punto attraverso una retta affine).

Tutoraggio: Esercizi su: formule di Cramer, prodotto vettoriale, diagonalizzazione, isometrie del piano. Scheda degli esercizi

Settimana 11

Lun 04.12 Ricevimento/tutoraggio dalle 09:30 alle 12 in aula 10 (RM0018, via del castro laurenziano). Esercizi su: formule di Cramer, prodotto vettoriale, diagonalizzazione, isometrie del piano. Scheda degli esercizi

Lun 04.12 Le matrici di rotazione sono diagonalizzabili su \(\mathbb{C}\) ma non hanno nessun autovettore reale, in particolare non sono diagonalizzabili su \(\mathbb{R}\). Lo spettro di una matrice. Molteplicità algebrica e geometrica di un autovalore. Polinomio caratteristica di una matrice \(2\times 2\) e \(3\times 3\) in termini della traccia e del determinante. Teorema: la molteplicità geometrica di un autovalore è minore uguale della sua molteplicità algebrica. Se un autovalore ha molteplicità algebrica uguale ad uno allora anche la sua molteplicità geometrica è uguale ad uno. Il polinomio caratteristico di una matrice della forma \(B^{-1}AB\) è uguale al polinomio caratteristico di \(A\) (si dice che il polinomio caratteristico è invariante per similitudine). Esempi ed esercizi.

Mar 05.12 Spettro di una matrice triangolare superiore. Moleplicità geometrica e algebrica degli autovalori di una matrice diagonale. Matrici simili: due matrici simili hanno lo stesso rango, lo stesso polinomio caratteristico, gli stessi autovalori con le stesse molteplicità geometriche. Autovettori relativi ad autovalori distint sono linearmente indipendenti. Autospazi relativi ad autovalori distinti si intersecano solo in zero. Teorema: una matrice è diagonalizzabile su \(\mathbb{K}\) se solo se lo spettro è contenuto in \(\mathbb{K}\) la molteplicità geometrica di ogni autovalore è uguale alla sua molteplicità algebrica. Una matrice \(n\times n\) che ha \(n\) autovalori distinti in \(\mathbb{K}\) è diagonalizzabile su \(\mathbb{K}\). Blocco di Jordan.

Mer 06.12 Teorema di Cayley-Hamilton. Utilizzo del teorema di Cayley-Hamilton per il calcolo dell’inversa. Le matrice simmetriche \(2\times 2\) hanno autovalori reali. La proiezione ortogonale su una retta del piano è diagonalizzabile; essa è parte di una classe di enodmofismi lineari \(T\) tali che \(T^2=Id\). Se \(T^2=Id\) allora \(T\) è diagonalizzabile. Proiettori ovvero endomorfismi \(T\) tali che \(T^2=T\): essi sono diagonalizzabili. Svolgimento dell’esercizio 3 dell’esame della seconda sessione dell’anno accademico 2022/23.

Gio 07.12 Gemetria analitica dello spazio (Lezione 8): vettore direttore di una retta come prodotto vettoriale, distanza punto-piano, distanza retta-retta, distanza punto-retta. Condizione di allineamento di tre punti. Procedimento di ortonormalizzazione di Gram-Schmidt. Svolgimento dell’esercizio 2 dell’esame della seconda sessione dell’a.a. 2022/23.

Tutoraggio: Esercizi di riepilogo sulla diagonalizzazione e sulla geometria analitica dello spazio. Scheda degli esercizi

Settimana 12

Lun 11.12 Ricevimento dalle 09:30 alle 12 in aula 10 (RM0018, via del castro laurenziano) ANNULLATO (causa malattia del docente).

Lun 11.12 Svolgimento degli esercizi 1,2 3 e 4 dell’esame scritto del 26 giugno 2023.

Mar 12.12 Lo spazio euclideo standard \((\mathbb{R}^n,\cdot)\): definizione del prodotto scalare standard (o prodotto puntino). Proprietà del prodotto scalare standard. Definizione della norma. Proprietà della norma. Disuguaglianza di Cauchy-Schwarz. Definizione di coseno dell’angolo tra due vettori non-nulli. Definizione di distanza. Proprietà della distanza. Disuguaglianza triangolare. Definizione dell’ortogonale \(U^\perp\) ad un sottospazio vettoriale \(U\) di \(\mathbb{R}^n\); esso è un sottospazio vettoriale di \(\mathbb{R}^n\). Matrice aggiunta (rispetto al prodotto scalare standard). La matrice aggiunta è uguale alla matrice trasposta. Formula di aggiunzione: \(AX\cdot Y=X\cdot A^tY\). Teorema di decomposizione ortogonale: \(\mathbb{R}^m=\textrm{Col}(A)\oplus\textrm{Ker}A^t\) e \((\textrm{Col}(A))^\perp=\textrm{Ker}A^t\) per ogni matrice \(A\) avente \(m\) righe.

Mer 13.12 L’ortogonale allo span di m vettori di \(\mathbb{R}^n\) è l’insieme delle soluzioni del sistema omogeneo delle equazioni lineari aventi come coefficienti quegli m vettori. Dato un sottospazio vettoriale \(U\) di \(\mathbb{R}^n\) si ha \(\mathbb{R}^n=U\oplus U^\perp\); in particolare \(\textrm{dim}(U^\perp) = n- \textrm{dim}(U)\) e \((U^\perp)^\perp=U\). Proiezione ortogonale su un sottospazio vettoriale di \(\mathbb{R}^n\). La proiezione ortogonale di un vettore su un sottospazio vettoriale \(U\) di \(\mathbb{R}^n\) è il vettore di \(U\) più vicino al vettore dato. Calcolo della distanza punto-sottospazio vettoriale e punto-sottospazio affine utilizzando la proiezione ortogonale. Proposizione: per ogni matrice \(A\) si ha \(\mathrm{Ker}(A^tA)=\mathrm{Ker}(A)\); in particolare, \(\mathrm{rg}(A^tA)=\mathrm{rg}(A)\). Matrice di proiezione ortogonale su un sottospazio vettoriale \(U\) di \(\mathbb{R}^n\): essa è la matrice \(P_U=A(A^tA)^{-1}A^t\) dove la matrice \(A\) ha per colonne una base di \(U\).

Gio 14.12 Utilizzo del teorema di decomposizione ortogonale per il calcolo di equazioni cartesiane di sottospazi vettoriali di \(\mathbb{R}^n\). Insiemi ortogonali di \(\mathbb{R}^n,\cdot\). Un insieme ortogonale è linearmente indipendente. Basi ortogonali. Coefficienti di Fourier. Utilizzo di una base ortogonale di un sottospazio vettoriale \(U\) di \(\mathbb{R}^n\) per il calcolo della proiezione ortogonale su \(U\). Versori. Versori di \(\mathbb{R}^2\). Basi ortonormali. Algoritmo di Gram-Schmidt. Matrici ortogonali. Teorema spettrale reale (solo enunciato).

Tutoraggio: Esercizi su prodotto scalare standard, proiezione ortogonale, algoritmo di Gram-Schmidt, diagonalizzazione ortogonale. Scheda degli esercizi

Settimana 13

Lun 18.12 Ricevimento dalle 09:30 alle 12 in aula 10 (RM0018, via del castro laurenziano). Abbiamo corretto gli esercizi numero 2,4 e 5 dell’esame della prima sessione del 22/23, l’esercizio 9 della secheda di esercizi della settimana 12 e l’esercizio 5 dell’esame della seconda sessione 22/23.

Lun 18.12 Dimostrazione del teorema spettrale reale: una matrice simmetrica ha tutti gli autovalori reali; autospazi relativi ad autovalori distinti di una matrice simmetrica sono ortogonali. Esercizi sulle matrici ortogonalmente diagonalizzabili e sulla proiezione ortogonale.

Mar 19.12 Forme bilineari e forme quadratiche: cenni al teorema di classificazione di Sylvester: Forma qudratica associata ad una forma bilineare simmetrica reale. Matrice associata ad una forma bilineare simmetrica in una base. Basi ortogonali. Vettori isotropi. L’algoritmo di Gram-Schmidt applicato ad una base senza vettori isotropi produce una base ortogonale. Segnatura di una forma quadratica in una base ortogonale. La segnatura non dipende dalla base ortogonale scelta (senza dimostrazione).

Mer 20.12 Nucleo di una forma bilineare. Esercizio sulla diagonalizzazione di una forma quadratica: durante l’esercizio abbiamo evidenziato i metodi per trovare una base di Sylvester (o diagonalizzando ortogonalmente la matrice simmetrica associata oppure con l’algoritmo di Gram-Schmidt generalizzato). Coniche: richiamo sulle definizioni delle coniche non degeneri come luoghi geometrici e loro proprietà focali. Definizione di conica. Deifnizione di coniche affinemente equivalenti. Definizione di coniche metricamente equivalenti. Teroema di classificazione affine delle coniche. Cenni alla dimostrazione. Illustrazione della dimostrazione completa nel caso di un esempio. Invarianti.

Gio 21.12 QUESTA LEZIONE SI TIENE DALLE 14 ALLE 17. Esercitazione con il riepilogo di tutti gli argomenti trattati nel corso, basandosi sugli esercizi presenti negli esami scritti degli anni passati.