14:30 – 17 ottobre 2023
Alberto Bucci (Università di Pisa)
Nikita Deniskin (Scuola Normale Superiore)
Igor Simunec (Scuola Normale Superiore)
Aula Magna, Dipartimento di Matematica
Presentazione seminari PYSANUM
In questo primo incontro presenteremo PYSANUM. Primo ciclo di seminari di analisi numerica rivolto agli studenti!
16.00 – 25 ottobre 2023
Chiara Faccio (Scuola Normale Superiore)
Aula Riunioni, Dipartimento di Matematica
Caratterizzazione strutturale dell’acqua liquida:
un approccio computazionale basato sulla teoria dei grafi
Lavoro congiunto con Michele Benzi (Scuola Normale Superiore), Isabella Daidone (Dipartimento di Scienze Fisiche e Chimiche, Università dell’Aquila) e Laura Zanetti-Polzi (Centro S3, Istituto di Nanoscienze del CNR, Modena)
[1] C. Faccio, M. Benzi, L. Zanetti-Polzi, & I. Daidone, Low-and high-density forms of liquid water revealed by a new medium-range order descriptor. Journal of Molecular Liquids, 355, 118922, 2022.
[2] M. Benzi, & C. Klymko, Total communicability as a centrality measure. Journal of Complex Networks, 1(2), 124-149, 2013.
[3] M. Benzi, I. Daidone, C. Faccio, and L. Zanetti-Polzi. ‘Structural analysis of water networks’. Journal of Complex Networks, 11(1):cnad001, 01 2023.
16.00 – 14 novembre 2023
Michele Rinelli (Scuola Normale Superiore)
Aula Seminari, Dipartimento di Matematica
Calcolo della traccia di funzioni di matrici mediante stimatori stocastici e probing
16.00 – 27 novembre 2023
Martina Iannacito (KU Leuven)
Aula Riunioni, Dipartimento di Matematica
Introduzione ai tensori: dalle applicazioni alle sfide contemporanee
Per oltre un secolo, i matematici sono stati affascinati dallo studio delle proprietà di famiglie di matrici. Gli oggetti con cui allora iniziarono a confrontarsi sono oggi noti come tensori o array multidirezionali. Lo studio dei tensori ha acquisito particolare rilevanza grazie alle molteplici applicazioni in cui forniscono importanti benefici. Queste strutture matematiche multidimensionali garantiscono l’unicità della fattorizzazione (sotto ipotesi non eccessivamente complesse), consentono rappresentazioni più adatte di fenomeni complessi e delle loro intricate interazioni. Infine, se rappresentati in modo ottimale, i tensori offrono vantaggi computazionali. Tutte queste loro proprietà hanno aperto diverse nuove direzioni di ricerca in campo matematico, numerico e computazionale.
Nella prima metà di questa presentazione, esamineremo problemi provenienti da applicazioni concrete in cui i tensori sono stati di innovazione. Contemporaneamente, verrà fornita una panoramica di alcune tecniche di decomposizione tensoriale che meglio si adattano al problema considerato di volta in volta.
Il focus della seconda parte si sposterà sulle sfide contemporanee incontrate nello sviluppo di tecniche basate su array multidimensionali, e nell’implementazione di nuovi algoritmi per la fattorizzazione tensoriale. Questa discussione offrirà spunti di riflessione sul panorama in evoluzione della ricerca sui tensori, evidenziandone la rilevanza e il potenziale.
16.00 – 12 dicembre 2023
Alessandro Filippo (Roma Tor Vergata)
Aula Seminari, Dipartimento di Matematica
Reti complesse: Robustezza, indici di centralità e nuove strategie per il ranking dei nodi
Determinare quali siano i nodi più importanti in una rete complessa è uno dei problemi principali dell’analisi delle reti. Tale problema, anche noto come il problema del ranking, viene tipicamente risolto attraverso il calcolo delle misure di centralità.
Tuttavia, cambiamenti strutturali improvvisi, quali la rimozione di alcuni nodi o archi, possono invalidare la nostra conoscenza dei nodi più critici. Per esempio, nodi dapprima cruciali potrebbero perdere tutta la loro importanza qualora rimanessero isolati.
Quindi, per studiare l’impatto della rimozione dei nodi più influenti da una rete, sarebbe necessario ricalcolare costantemente le misure di centralità, un’operazione spesso impraticabile per reti di grandi dimensioni. Al contrario, evitare del tutto il ricalcolo potrebbe fornire una rappresentazione della realtà poco accurata.
Tratto da un lavoro in collaborazione con Daniele Bertaccini.
D. Bertaccini, A. Filippo. A proposal for ranking through selective computation of centrality measures. PLOS ONE, 18, 2023.
14.30 – 12 febbraio 2024
Miryam Gnazzo (Gran Sasso Science Institute)
Aula Seminari, Dipartimento di Matematica
Un oracolo per la risoluzione di problemi di matrix nearness
Data una matrice A, un problema di matrix nearness consiste nel trovare la matrice più vicina ad A all’interno di un insieme specifico di matrici, misurando la distanza in una norma matriciale. Ad esempio trovare la matrice singolare più vicina data una matrice invertibile rientra in questa classe di problemi. In alcuni casi può essere utile estendere questa classe di problemi, considerando polinomi di matrici, cioè polinomi i cui coefficienti sono matrici.
Nella prima parte di questa presentazione, ci sarà un’introduzione ai problemi di matrix nearness e alla loro estensione ai polinomi di matrici, con alcuni esempi di applicazioni. Nella seconda parte, invece, scenderemo nei dettagli, descrivendo come poter interpretare i problemi di matrix nearness come problemi di ottimizzazione su un opportuno insieme di matrici. Infine presenterò un nuovo approccio che utilizza un oracolo per ottenere informazioni sulla soluzione del problema di matrix nearness.
Lavoro congiunto con Vanni Noferini (Aalto University), Lauri Nyman (Aalto University) e Federico Poloni (Università di Pisa).
[1] M. Gnazzo, V. Noferini, L. Nyman, F. Poloni. The Oracle of Breselenz: a general-purpose Riemannian optimizer to solve nearness problems in matrix theory, in preparation (2024).
16.00 – 21 marzo 2024
Francesco Hrobat (Scuola Normale Superiore)
In questo seminario verranno presentati due algoritmi recenti (ZOLO-PD e QDWH) che forniscono la base per nuovi algoritmi paralleli per il calcolo della SVD e della decomposizione agli autovalori simmetrica.
Gli algoritmi presi in esame si basano sul calcolo della decomposizione polare di una matrice, la quale viene costruita tramite la funzione segno di una matrice. La funzione segno matriciale può essere a sua volta calcolata con elevata precisione attraverso approssimazioni razionali su intervalli simmetrici reali della stessa funzione segno. Ciò conduce naturalmente alla teoria dell’approssimazione e, in parte, alla teoria delle funzioni ellittiche. Lo studio dettagliato dell’approssimazione razionale ottimale della funzione segno è stato condotto da Zolotarev, focalizzandosi in particolare su due problemi, noti oggi come terzo e quarto problema di Zolotarev.
14.30 – 12 aprile 2024
Ivan Bioli (Università degli Studi di Pavia)
Aula Riunioni, Dipartimento di Matematica
Introduzione all’ottimizzazione Riemanniana e applicazioni a equazioni matriciali
Dato il problema di minimizzazione di una funzione costo f su una varietà Riemanniana immersa M, l’ottimizzazione Riemanniana offre un’alternativa al tradizionale approccio di trattare il problema come un’ottimizzazione Euclidea vincolata, generalizzando gli algoritmi di ottimizzazione Euclidea non vincolata per operare direttamente sullo spazio ambiente curvo M.
Nella prima parte di questo seminario, esamineremo i concetti fondamentali della geometria differenziale e Riemanniana, rivolgendoci anche a un pubblico non ancora familiare con tali argomenti. Successivamente, approfondiremo come l’algoritmo di discesa del gradiente possa essere esteso alla sua versione Riemanniana. Infine, esploreremo applicazioni pratiche. Come primo esempio didattico, discuteremo il calcolo degli autovalori estremi di una matrice simmetrica tramite la minimizzazione del quoziente di Rayleigh. Successivamente, illustreremo come per la risoluzione di equazioni matriciali lineari l’ottimizzazione Riemanniana si dimostri competitiva con gli algoritmi stato dell’arte.
Per approfondimenti teorici sull’argomento, consigliamo l’eccellente libro di N. Boumal [2]. Per iniziare a sperimentare gli algoritmi di ottimizzazione Riemanniana, raccomandiamo la toolbox Manopt [1].
References:
[1] Nicolas Boumal et al. “Manopt, a Matlab Toolbox for Optimization on Manifolds”. In:
Journal of Machine Learning Research 15.42 (2014), pp. 1455–1459.
[2] Nicolas Boumal. An introduction to optimization on smooth manifolds. Cambridge
University Press, 2023.