Ingegneria civile e per l'ambiente ed il territorio

Diario delle lezioni

A. A. 2022/2023

Tutti i risultati elencati sono stati dimostrati a lezione, se non diversamente specificato

Settimana 1

Mar 27.09 Presentazione del corso. Definizione di gruppo commutativo. L’opposto è unico. Definizione di campo. Il campo \(\mathbb{C}\) dei numeri complessi.

Mer 28.09 Inverso moltiplicativo di un numero complesso. Radici di un polinomio. Algoritmo euclideo per la divisione di due polinomi. Teorema fondamentale dell’algebra. Molteplicità algebrica di una radice di un polinomio. Definizione di spazio vettoriale su un campo \(\mathbb{K}\). L’insieme \(\mathbb{C}\) è uno spazio vettoriale su \(\mathbb{R}\). L’insieme dei polinomi \(\mathbb{R}[x]\) è uno spazio vettoriale su \(\mathbb{R}\).

Giov 29.09 Esempi di spazi vettoriali: matrici \(m\times n\) a coefficienti in un campo \(\mathbb{K}\). Legge di cancellazione per la somma. Combinazioni lineari: definizione e primi esempi. Esercizi su numeri complessi, forma trigonometrica dei numeri complessi e radici di polinomi.

Settimana 2

Lun 03.10 Lo spazio vettoriale \(\mathbb{K}^X\) delle funzioni da un insieme \(X\) ad un campo \(\mathbb K\). Vettori geometrici del piano. Vettori geometrici equivalenti. L’insieme \(\mathcal{V}_O^2\) dei vettori geometrici del piano applicati ad un punto \(O\). Definizione di somma e prodotto per scalari (reali) in \(\mathcal{V}_O^2\). Teorema: \(\mathcal{V}_O^2\) con questa somma e prodotto per scalari è uno spazio vettoriale reale.

Mar 04.10 L’insieme delle combinazioni lineari di \(n\) vettori di uno spazio vettoriale \(V\) si chiama il loro span. Esempi di span. Lo span delle colonne di una matrice \(A\) si denota con \(Col(A)\). Descrizione cartesiana di \(Col(A)\) per una semplice matrice \(3\times 2\). Dati tre punti distinti e non allineati \(O\), \(A\) e \(B\) del piano euclideo \(\mathcal{E}^2\), si ha \(Span(\stackrel{\rightarrow}{OA},\stackrel{\rightarrow}{OB})=\mathcal{V}_O^2\). Generatori standard di \(\mathbb{K}^n\) e di \(\mathbb{K}[x]\). Definizione di sottospazio vettoriale. Lo Span di \(n\) vettori di uno spazio vettoriale \(V\) è un sottospazio vettoriale. Esempi di sottospazi vettoriali: soluzioni dell’equazione \(x_1+2x_2=0\) in \(\mathbb{R}^2\); polinomi che valgono zero in uno.

Mer 05.10 Richiami. L’intersezione di sottospazi vettoriali è un sottospazio vettoriale. Esempio di una intersezione di due sottospazi di \(\mathbb{R}^3\). Definizione di sottospazio generato da un sottoinsieme \(\mathcal{T}\) di uno spazio vettoriale \(V\); esso si denota con \(\langle\mathcal{T}\rangle\). Si ha che \(Span(v_1,\cdots, v_n)\) =\(\langle v_1,\cdots, v_n\rangle\). Lemma di scambio. Due esempi su come poter utilizzare il lemma di scambio.

Gio 06.10 Lezione di approfondimento con il co-docente riguardo a combinazioni lineari, span, sottospazi vettoriali e lemma di scambio.

Settimana 3

Lun 10.10 Dipendenza ed indipendenza lineare: definizioni esempi e motivazioni. Lemma di dipendenza lineare. Lemma di indipendenza lineare. Lo spazio vettoriale \(\mathbb{R}^\mathbb{R}\) ammette insiemi linearmente indipendenti arbitrariamente grandi; nello spazio vettoriale \(\mathcal{V}_O^3\) il numero massimo di vettori linearmente indipendenti é tre.

Mar 11.10 Applicazioni del lemma di indipendenza lineare: polinomi con gradi distinti sono linearmente indipendente; le soluzioni-base di un sistema ridotto (cenni alla definizione) sono linearmente indipendenti. Teorema fondamentale sull’indipendenza lineare e suoi corollari. Definizione di base. Definizione di dimensione. Uno spazio vettoriale finitamente generato ammette una base; algoritmo di generazione di basi. Lo spazio vettoriale dei polinomi e delle funzioni reali di variabile reale non ammettono una base.

Mer 12.10 Coordinate di un vettore in una base. La funzione \(F_\mathcal{B}:V\rightarrow\mathbb{K}^n\) si chiama la funzione coordinate nella base \(\mathcal{B}\). La funzione \(F_\mathcal{B}\) è biunivoca. Se \(dim\,V=n\) e \(\mathcal{B}\subset V\) ha cardinalità \(n\), allora \(\mathcal{B}\) è una base se e solo se \(\mathcal{B}\) è linearmente indipendente se e solo se \(\mathcal{B}\) genera \(V\). Se \(V\) ammette una base e \(U\) è un sottospazio vettoriale di \(V\) allora anche \(U\) ammette una base; inoltre \(dim \,U\leq dim\, V\) e l’uguaglianza vale se e solo se \(U=V\). Teorema del completamento (è la seconda parte del teoerema fondamentale sull’indipendenza lineare). Somma di sottospazi. Formula di Grassmann.

Gio 13.10 Esercizi di riepilogo sugli spazi vettoriali.

Settimana 4

Lun 17.10 Comandi MATLAB: inserire una matrice in MATLAB, il comando \(\texttt{sym}\), numeri complessi in MATLAB, comando MATLAB per l’inverso di un numero complesso, estrazione di una componente, di una riga e di una colonna in MATLAB. Funzioni lineari. Esempi di funzioni lineari: l’identità, le omotetie su \(\mathbb{R}\) (ovvero le funzioni reali di variabile reale della forma \(f(x)=ax\)), la funzione \(F_\mathcal{B}\) “coordinate in una base \(\mathcal{B}\)”, la trasposizione di matrici. Comando MATLAB per la trasposta di una matrice. Una funzione lineare manda il vettore nullo nel vettore nullo. Matrici simmetriche ed anti-simmetriche. Somma diretta di due sottospazi vettoriali di uno spazio vettoriale. Lo spazio vettoriale delle matrici quadrate è la somma diretta del sottospazio delle matrici simmetriche e del sottospazio delle matrici anti-simmetriche. La scrittura di un vettore in una somma diretta come somma di vettori dei due sottospazi è unica. Data una somma diretta \(V=U\oplus W\), è definita la funzione proiezione su \(U\) lungo \(W\) e la denotiamo con \(pr_U^W:V\rightarrow V\).

Mar 18.10 La proiezione \(pr_U^W\) su un sottospazio \(U\) lungo un suo supplementare \(W\) è lineare. La valutazione di un polinomio in un polinomio; essa è una funzione lineare. La derivata di polinomi è lineare. La funzione \(\mathbb{K}[X]\rightarrow \mathbb{K}^2:p\mapsto \begin{pmatrix}p(0)\\p(1)\end{pmatrix}\) è lineare. La composizione di funzioni lineari è lineare. Combinazioni lineari di funzioni lineari sono lineari. Una funzione lineare è univocamente determinata dai valori che assume su una base del dominio.

Mer 19.10 Esercizio riguardo al teorema che enuncia che un’applicazione lineare è univocamente determinata dai valori che assume sugli elementi di una base del suo dominio. Data una matrice \(A\) di taglia \(m\times n\) abbiamo definito la funzione \(S_A:\mathbb{K}^n\rightarrow \mathbb{K}^m\) “moltiplicazione a sinistra per la matrice \(A\)”. Abbiamo dimostrato che \(S_A\) è lineare e che le funzioni lineari da \(\mathbb{K}^n\) a \(\mathbb{K}^m\) sono tutte e sole le moltiplicazioni a sinistra per una matrice \(m\times n\). Comando MATLAB per calcolare \(S_A(X)\): \(\texttt{A*X}\). Abbiamo definito il nucleo o Kernel e l’immagine di una funzione lineare \(\mathcal{L}\) ed abbiamo dimostrato che sono sottospazi vettoriali del dominio e del co-dominio di \(\mathcal{L}\), rispettivamente. Abbiamo dimostrato la formula della dimensione che lega la dimensione del nucleo con la dimensione dell’immagine di una funzione lineare (se il dominio è finitamente generato) ed abbiamo fatto vedere in un esempio che la dimostrazione è costruttiva, e fornisce una tecnica per calcolare una base dell’immagine conoscendo una base del nucleo.

Giov 20.10 Esercizi.

Settimana 5

Lun 24.10 Una funzione è biiettiva se e solo se ammette inversa. Una funzione lineare si dice un isomorfismo lineare se è biiettiva. L’inversa di un isomorfismo lineare è lineare. La funzione coordinate in una base è un isomorfismo lineare. Una funzione lineare è un isomorfismo lineare se e solo se manda basi in basi se e solo se manda una base in una base. Una funzione lineare è iniettiva se e solo se ha nucleo banale.

Mar 25.10 Un \(\mathbb{K}\)-spazio vettoriale di dimensione \(n\) è isomorfo a \(\mathbb{K}^n\). Il rango di una funzione lineare. Comando MATLAB \(\texttt{rk}(A)\). Se \(f:V\rightarrow W\) è lineare e \(g: W\rightarrow W'\) è un isomorfismo lineare allora \(rg(g\circ f)=rg(f)\) e \(\mathrm{Ker}\,(g\circ f)=\mathrm{Ker}\,(f)\). Matrici invertibili (definizione e prime proprietà). Colonne dominanti di una matrice. Una matrice \(R\) si dice a scala ridotta se le sue colonne dominanti sono \(e_1,\cdots, e_r\), dove \(r=rg(R)\). Teorema: data una matrice \(A\) esiste una matrice matrice invertibile \(C\) tale che \(S_C\circ S_A=S_R\) dove \(R\) è una matrice a scala ridotta; inoltre \(R\) è unica e si chiama la forma a scala ridotta di \(A\) e si denota con \(rref(A)\); inoltre le colonne dominanti di \(A\) hanno le stesse posizioni delle colonne dominanti di \(R\). Comando MATLAB: \(\textt{rref}(A)\). Operazioni elementari sulle righe di una matrice.

Mer 26.10 Le operazioni elementari sulle righe di un vettore di \(\mathbb{K}^m\) sono isomorfismi lineari da \(\mathbb{K}^m\) a \(\mathbb{K}^m\). Le corrispondenti matrici si chiamano matrici elementari e si denotano con \(P_{ij}\) (scambio della riga \(i\) con la riga \(j\)), \(D_{i}(\lambda)\) (moltiplicazione della riga \(i\) per lo scalare non-nullo \(\lambda\)), \(F_{ij}(c)\) (sostituzione della riga \(i\)-esima con la riga \(i\)-esima + \(c\) volte la riga \(j\)-esima). Esempio di come ridurre una matrice \(A\) a scala ridotta, evidenziando il ruolo delle matrici elementari. Prodotto righe-per-colonne di matrici.

Giov 27.10 Esercizi.

Settimana 6

Lun 31.10 Lezione annullata.

Mar 01.11 Vacanza accademica.

Mer 02.11 Matrice identità. Matrici a scala. Algoritmo di Gauss. Utillizzo dell’algoritmo di Gauss per il calcolo del rango e di una base dell’immagine di una matrice. Algoritmo di Gauss-Jordan. Utilizzo dell’algoritmo di Gauss-Jordan per il calcolo dell’inversa di una matrice invertibile (algoritmo di inversione). Utilizzo dell’algoritmo di Gauss per estrarre una base dello span di vettori di \(\mathbb{K}^m\) e di \(\mathbb{K}[x]_{\leq n}\).

Giov 03.11 Esercizi sull’algoritmo di inversione. Inversa di una matrice \(2\times 2\) utilizzando l’algoritmo di inversione. Se una matrice quadrata ha inversa sinistra allora è invertibile. Esercizi sul calcolo del rango e di una base dell’immagine di una matrice utilizzando l’algoritmo di Gauss.

Settimana 7

Lun 07.11 Appunti del ricevimento.

Lun 07.11 Matrici associate ad applicazioni lineari in due basi date (una in partenza ed un in arrivo). Utilizzo della matrice associata per trovare una base del nucleo e dell’immagine di un’applicazione lineare e per il calcolo della sua eventuale inversa. Matrice di cambiamento di base.

Mar 08.11 Esercizio 4 dell’esame di gennaio 2022. Esercizio 4 dell’esame di giugno 2022. Formula per l’inversa di una matrice \(2\times 2\) utilizzando l’algoritmo di Gauss-Jordan. Proiettori. Un endomorfismo lineare \(f\) è un proiettore se e solo è \(f^2=f\). Matrice associata ad un proiettore nella base più ovvia: essa è una matrice a blocchi in cui tutti i blocchi sono zero a parte il blocco in alto a sinistra che è l’identità \(r\times r\), dove \(r=rg(f)\). Appunti

Mer 09.11 Matrici di proiezione (su un sottospazio vettoriale di \(\mathbb{K}^n\) lungo un suo complementare). Una matrice quadrata \(A\) è una matrice di proiezione se e solo \(A^2=A\). Esercizi sulle matrici di proiezione e su matrici associate ad un’applicazione lineare. Sistemi lineari: matrice dei coefficienti, vettore dei termini noti e matrice completa di un sistema lineare; risolvere un sistema lineare è come risolvere un’equazione matriciale \(AX=b\). L’insieme delle soluzioni di un sistema \(AX=b\) è \(S_A^{-1}(b)\). Tricotomia dell’insieme delle soluzioni. Teorema di struttura delle soluzioni di un sistema lineare. Teorema di Rouché-Capelli. Appunti

Giov 10.11 Esercizi.

Settimana 8

Lun 14.11 Appunti del ricevimento

Lun 14.11 Riepilogo sui sistemi lineari e sui sistemi a scala ridotta. Comando MATLAB \(\texttt{A}\setminus\texttt{b}\) per trovare una soluzione particolare del sistema \(AX=b\). Studio di un sistema a scala ridotta. Soluzione degli esercizi 4 e 5.3 della settimana 7. Appunti

Mar 15.11 Algebra multilineare: Funzioni multilineari; Funzioni alternanti; Funzioni che cambiano segno quando si scambiano due variabili. Funzioni multilineari sulle righe di una matrice. Funzioni multilineari sulle colonne di una matrice. Funzioni alternanti sulle righe di una matrice. Funzioni alternanti sulle colonne di una matrice. Teorema: esiste un’unica funzione multilineare e alternante sulle righe di una matrice che vale \(1\) sulla matrice identità. Tale funzione si chiama determinante e si denota con \(det\). Comando MATLAB: \(\texttt{det}\). Appunti

Mer 16.11 Riepilogo sul determinante. Abbiamo verificato che \(d^{(2)}\) è multilineare e alternante sulle righe e vale uno sulla matrice identità. Il determinante di una matrice \(A\) è diverso da zero se e solo se \(A\) è invertibile. Determinante nel caso di uno spazio vettoriale astratto di dimensione finita, con una base fissata. Il determinante \(2\times 2\) come area orientata. Basi unitarie di \(\mathcal{V}_O^2\) (ovvero basi che generano un parallelogramma di area uno). Calcolo dell’area di un triangolo del piano. Determinante di una matrice a scala. Per calcolo il determinante di una matrice possiamo operare sulle righe, usare l’informazione del determinante di una matrice a scala e usare la definizione di determinante usata per dimostrarne l’esistenza. Appunti

Settimana 9

Lun 21.11 Appunti del ricevimento

Lun 21.11 Richiami sul determinante: il determinante di una matrice \(A\) è diverso da zero se e solo se \(A\) è invertibile; per calcolare il determinante bisogna operare sulle righe in modo da creare molti zeri sulla prima colonna e poi applicare la definizione, oppure trasformare la matrice a scala e poi fare il prodotto degli elementi diagonali; dati due punti \(A,C\in\mathcal{E}^2\) si ha \(\stackrel{\rightarrow}{AC}=\stackrel{\rightarrow}{OC}-\stackrel{\rightarrow}{OA}\). Teorema di Binet con due dimostrazioni. Il determinante dell’inversa è l’inverso del determinante. Operazioni elementari sulle colonne di una matrice; esse corrispondono a moltiplicare a destra per una matrice elementare. Spazio delle righe e Rango-riga di una matrice. Il rango-riga è uguale al rango ovvero \(rg(A^t)=rg(A)\) per ogni matrice \(A\) di taglia aribitraria. \(det(A^t)=det(A)\). Appunti

Mar 22.11 Dimostrazione del teorema \(det(A^t)=det(A)\). Utilizzo delle operazioni sulle colonne per il calcolo del determinante. Sviluppo di Laplace del determinante lungo una riga o una colonna. Il determinante di una matrice triangolare a blocchi è il prodotto dei determinanti dei blocchi diagonali (senza dimostrazione). Cofattori. Matrice aggiunta. Appunti

Mer 23.11 Teorema: \(AAgg(A)^t=det(A)\mathbb{1}\); corollario (formula di Cramer per l’inversa): \(A^{-1}=\frac{1}{det(A)}Agg(A)^t\); corollario: soluzione di un sistema lineare non-singolare. Teorema degli orlati (senza dimostrazione). Comando MATLAB per estrarre sottomatrici. Appunti

Giov 24.11 Esercizi.

Settimana 10

Lun 28.11 Appunti del ricevimento

Lun 28.11 Abbiamo cominciato a parlare della diagonalizzazione di un endomorfismo lineare di uno spazio vettoriale. Sottospazi invarianti. Definizione di autovettore di autovalore \(\lambda\). Una retta (passante per l’origine) è invariante se e solo se è generata da un autovettore. Autospazio associate ad uno scalare. Per studiare l’esistenza di una retta invariante ci si può ricondurre ad endomorfismi lineari di \(\mathbb{K}^n\) ovvvero matrici quadrate. Spettro di una matrice quadrata. Lo spettro di una matrice \(A\) sono gli zeri della funzione \(p_A(x)=det(x\mathbb{1}_n-A)\). Calcolo di \(p_A(x)\) nel caso di matrici \(2\times 2\). Matrici di rotazione. Spettro delle matrici di rotazione. Una matrice di rotazione ammette un autovettore reale se e solo se è la rotazione per zero o per \(\pi\). Una matrice triangolare superiore ha \(e_1\) come autovettore. Appunti

Mar 29.11 Se una matrice reale ha un autovalore complesso non reale, allora non ha autovettori reali corrispondenti a quell’autovalore. Per ogni autovalore di una matrice reale anche il suo coiugato è un autovalore. Endomorfismi diagonalizzabili. Matrici diagonalizzabili (su \(\mathbb{R}\) e su \(\mathbb{C}\)). Due matrici simili hanno lo stesso polinomio caratteristico. Formula del polinomio caratteristico per matrici \(2\times 2\) e \(3\times 3\) in termini di traccia e determinante. Molteplicità geometrica di un autovalore. Appunti

Mer 30.11 La molteplicità geometrica di un autovalore di una matrice è minore o uguale alla sua molteplicità algebrica. Teorema: una matrice è diagonalizzabile su un campo \(\mathbb{K}\) se e solo se il suo spettro è contenuto in \(\mathbb{K}\) e per ogni suo autovalore la molteplicità geometrica è uguale alla molteplicità algebrica. Se una matrice \(n\times n\) ha \(n\) autovalori distinti in \(\mathbb{K}\) allora è diagonalizzabile su \(\mathbb{K}\). Blocco di Jordan. Un endomorfismo lineare di uno spazio vettoriale \(V\) di dimensione \(n\) è diagonalizzabile se e solo se ogni matrice ad esso associata in una base (sia in partenza che in arrivo) è diagonalizzabile. Utilizzo della diagonalibalità di una matrice per il calcolo delle sue potenze. Esercizi. Appunti

Giov 01.12 Esercizi.

Settimana 11

Lun 05.12 Appunti del ricevimento

Lun 05.12** Il determinante è il prodotto degli autovalori e la traccia è la somma degli autovalori. Comando MATLAB: \(\texttt{charpoly}\). Sottospazi affini. Equazioni parametriche e cartesiane di sottospazi affini di \(\mathbb{K}^n\). Un sottospazio affine di \(\mathbb{K}^n\) di dimensione \(k\) è descritto da \(n-k\) equazioni. Sottospazi affini paralleli (definizione e primi esempi). Appunti

Mar 06.12 Lezione annullata per malattia del docente.

Mer 07.12 Geometria affine del piano e dello spazio ovvero studio della posizione reciproca di sottospazi affini di \(\mathbb{R}^2\) ed \(\mathbb{R}^3\) in forma parametrica e cartesiana. (Durante la lezione ho commesso un errore (quale?) che ho corretto negli appunti) Appunti

Giov 08.12 Vacanza accademica.

Settimana 12

Lun 12.12 Appunti del ricevimento

Lun 12.12 Fascio di rette per un punto. Retta per due punti (equazione cartesiana nel caso del piano). Fascio improprio di rette nel piano. Il fascio per un punto ed il fascio improprio possono essere visti come il fascio per due rette date. Condizione di allineamento di tre punti. Piano assante per tre punti. Stella di piani per un punto dello spazio. Fascio di piani per una retta dello spazio. Appunti

Mar 13.12 Spazi euclidei. Il prodotto scalare standard su \(\mathbb{R}^n\). Essa è una funzione bilineare, simmetrica, non-degenere e definita positiva. La norma euclidea standard e sue proprietà. Versori. Versori di \((\mathbb{R}^2,\cdot)\). Coseni direttori di una retta di \((\mathbf{R}^2,\cdot)\). Definizione di distanza in \((\mathbb{R}^n,\cdot)\). Disuguaglianza di Cauchy-Schwarz. Angoli. Ortogonalità. Insiemi ortogonali. Un insieme ortogonale è linearmente indipendente. Basi ortogonali. Coefficienti di Fourier. Appunti

Mer 14.12 Rappresentazione grafica di \((\mathbb{R}^2,\cdot)\) e di \((\mathbb{R}^3,\cdot)\): riferimenti cartesiani di \(\mathcal{V}_O^2\), teorema di Carnot, riferimenti cartesiani di \(\mathcal{V}_O^3\) (regola della mano destra). Teorema di Pitagora e disguaglianza triangolare. Il sottospazio ortogonale ad un sottospazio vettoriale di \(\mathbb{R}^n\); esso è un sottospazio vettoriale. Vettore normale ad una retta di \(\mathbb{R}^2\) e ad un piano di \(\mathbb{R}^3\). Teorema di decomposizione ortogonale di \((\mathbb{R}^n,\cdot)\). Utilizzo del teorema di decomposizione ortogonale per il calcolo di equazioni cartesiane di un sottospazio vettoriale di \(\mathbb{R}^n\).

Giov 15.12 Esercizi.

Settimana 13

Lun 19.12 Proiezione ortogonale. Matrice di proiezione ortogonale. Calcolo della proiezione ortogonale utilizzando i coefficienti di Fourier. Algoritmo di Gram-Schmidt. Definizione di distanza tra sottoinsiemi di \(\mathbb{R}^n\). Distanza punto-sottospazio affine: la proiezione ortogonale è il punto più vicino. Distanza punto-retta nel piano, e punto-iperpiano in \(\mathbb{R}^n\) nel caso in cui l’iperpiano sia dato in forma cartesiana. Determinante \(3\times 3\) come volume orientato. Definizione di prodotto vettoriale in \(\mathbb{R}^3\). Appunti

Mar 20.12 Proprietà del prodotto vettoriale. Norma del prodotto vettoriale e suo utilizzo per il calcolo di aree in \(\mathbb{R}^3\) (esempio nel caso di un triangolo). Distanza tra due rette di \(\mathbb{R}^3\). Prodotto hermitiano standard su \(\mathbb{C}^n\). Matrici ortogonali. Teorema spettrale reale e sua dimostrazione. Teorema spettrale complesso (solo enunciato). Formula di aggiunzione reale e complessa. Isometrie del piano. Matrici di rotazione. Pendenza di una retta. Matrici di riflessione ortogonale attraverso una retta di pendenza \(m\). Appunti

Mer 21.12 Forma bilineare simmetrica e forma quadratica associata ad una matrice reale simmetrica \(n\times n\). Forma canonica metrica di una forma quadratica usando il teorema spettrale. Segnatura di una forma quadratica in termini degli autovalori della matrice. Sfere e circonferenza. Equazioni parametriche di una circonferenza. Retta tangente ad una circonferenza. Cenni alle coniche: richiami su ellissi, iperboli e parabole; calcolo della forma canonica metrica di una conica usando il teorema spettrale.

Giov 22.12 Esercizi.

Incontri natalizi

Mer 28.12 Esercitazione online di Azzurra Ciliberti. Appunti

Gio 29.12 Ricevimento. Appunti

Gio 05.01 Esercitazione online di Sante Centurioni dalle 16 alle 19 in questa stanza zoom.

Sab 07.01 Esercitazione online di Sante Centurioni dalle 16 alle 19 in questa stanza zoom.