14:30 – 17 ottobre 2023
Alberto Bucci (Università di Pisa)
Nikita Deniskin (Scuola Normale Superiore)
Igor Simunec (Scuola Normale Superiore)
Aula Magna, Dipartimento di Matematica
Presentazione seminari PYSANUM
In questo primo incontro presenteremo PYSANUM. Primo ciclo di seminari di analisi numerica rivolto agli studenti!
Lavoro congiunto con Michele Benzi (Scuola Normale Superiore), Isabella Daidone (Dipartimento di Scienze Fisiche e Chimiche, Università dell’Aquila) e Laura Zanetti-Polzi (Centro S3, Istituto di Nanoscienze del CNR, Modena)
[1] C. Faccio, M. Benzi, L. Zanetti-Polzi, & I. Daidone, Low-and high-density forms of liquid water revealed by a new medium-range order descriptor. Journal of Molecular Liquids, 355, 118922, 2022.
[2] M. Benzi, & C. Klymko, Total communicability as a centrality measure. Journal of Complex Networks, 1(2), 124-149, 2013.
[3] M. Benzi, I. Daidone, C. Faccio, and L. Zanetti-Polzi. ‘Structural analysis of water networks’. Journal of Complex Networks, 11(1):cnad001, 01 2023.
Per oltre un secolo, i matematici sono stati affascinati dallo studio delle proprietà di famiglie di matrici. Gli oggetti con cui allora iniziarono a confrontarsi sono oggi noti come tensori o array multidirezionali. Lo studio dei tensori ha acquisito particolare rilevanza grazie alle molteplici applicazioni in cui forniscono importanti benefici. Queste strutture matematiche multidimensionali garantiscono l’unicità della fattorizzazione (sotto ipotesi non eccessivamente complesse), consentono rappresentazioni più adatte di fenomeni complessi e delle loro intricate interazioni. Infine, se rappresentati in modo ottimale, i tensori offrono vantaggi computazionali. Tutte queste loro proprietà hanno aperto diverse nuove direzioni di ricerca in campo matematico, numerico e computazionale.
Nella prima metà di questa presentazione, esamineremo problemi provenienti da applicazioni concrete in cui i tensori sono stati di innovazione. Contemporaneamente, verrà fornita una panoramica di alcune tecniche di decomposizione tensoriale che meglio si adattano al problema considerato di volta in volta.
Il focus della seconda parte si sposterà sulle sfide contemporanee incontrate nello sviluppo di tecniche basate su array multidimensionali, e nell’implementazione di nuovi algoritmi per la fattorizzazione tensoriale. Questa discussione offrirà spunti di riflessione sul panorama in evoluzione della ricerca sui tensori, evidenziandone la rilevanza e il potenziale.
Determinare quali siano i nodi più importanti in una rete complessa è uno dei problemi principali dell’analisi delle reti. Tale problema, anche noto come il problema del ranking, viene tipicamente risolto attraverso il calcolo delle misure di centralità.
Tuttavia, cambiamenti strutturali improvvisi, quali la rimozione di alcuni nodi o archi, possono invalidare la nostra conoscenza dei nodi più critici. Per esempio, nodi dapprima cruciali potrebbero perdere tutta la loro importanza qualora rimanessero isolati.
Quindi, per studiare l’impatto della rimozione dei nodi più influenti da una rete, sarebbe necessario ricalcolare costantemente le misure di centralità, un’operazione spesso impraticabile per reti di grandi dimensioni. Al contrario, evitare del tutto il ricalcolo potrebbe fornire una rappresentazione della realtà poco accurata.
Tratto da un lavoro in collaborazione con Daniele Bertaccini.
D. Bertaccini, A. Filippo. A proposal for ranking through selective computation of centrality measures. PLOS ONE, 18, 2023.
Data una matrice A, un problema di matrix nearness consiste nel trovare la matrice più vicina ad A all’interno di un insieme specifico di matrici, misurando la distanza in una norma matriciale. Ad esempio trovare la matrice singolare più vicina data una matrice invertibile rientra in questa classe di problemi. In alcuni casi può essere utile estendere questa classe di problemi, considerando polinomi di matrici, cioè polinomi i cui coefficienti sono matrici.
Nella prima parte di questa presentazione, ci sarà un’introduzione ai problemi di matrix nearness e alla loro estensione ai polinomi di matrici, con alcuni esempi di applicazioni. Nella seconda parte, invece, scenderemo nei dettagli, descrivendo come poter interpretare i problemi di matrix nearness come problemi di ottimizzazione su un opportuno insieme di matrici. Infine presenterò un nuovo approccio che utilizza un oracolo per ottenere informazioni sulla soluzione del problema di matrix nearness.
Lavoro congiunto con Vanni Noferini (Aalto University), Lauri Nyman (Aalto University) e Federico Poloni (Università di Pisa).
[1] M. Gnazzo, V. Noferini, L. Nyman, F. Poloni. The Oracle of Breselenz: a general-purpose Riemannian optimizer to solve nearness problems in matrix theory, in preparation (2024).
In questo seminario verranno presentati due algoritmi recenti (ZOLO-PD e QDWH) che forniscono la base per nuovi algoritmi paralleli per il calcolo della SVD e della decomposizione agli autovalori simmetrica.
Gli algoritmi presi in esame si basano sul calcolo della decomposizione polare di una matrice, la quale viene costruita tramite la funzione segno di una matrice. La funzione segno matriciale può essere a sua volta calcolata con elevata precisione attraverso approssimazioni razionali su intervalli simmetrici reali della stessa funzione segno. Ciò conduce naturalmente alla teoria dell’approssimazione e, in parte, alla teoria delle funzioni ellittiche. Lo studio dettagliato dell’approssimazione razionale ottimale della funzione segno è stato condotto da Zolotarev, focalizzandosi in particolare su due problemi, noti oggi come terzo e quarto problema di Zolotarev.
Dato il problema di minimizzazione di una funzione costo f su una varietà Riemanniana immersa M, l’ottimizzazione Riemanniana offre un’alternativa al tradizionale approccio di trattare il problema come un’ottimizzazione Euclidea vincolata, generalizzando gli algoritmi di ottimizzazione Euclidea non vincolata per operare direttamente sullo spazio ambiente curvo M.
Nella prima parte di questo seminario, esamineremo i concetti fondamentali della geometria differenziale e Riemanniana, rivolgendoci anche a un pubblico non ancora familiare con tali argomenti. Successivamente, approfondiremo come l’algoritmo di discesa del gradiente possa essere esteso alla sua versione Riemanniana. Infine, esploreremo applicazioni pratiche. Come primo esempio didattico, discuteremo il calcolo degli autovalori estremi di una matrice simmetrica tramite la minimizzazione del quoziente di Rayleigh. Successivamente, illustreremo come per la risoluzione di equazioni matriciali lineari l’ottimizzazione Riemanniana si dimostri competitiva con gli algoritmi stato dell’arte.
Per approfondimenti teorici sull’argomento, consigliamo l’eccellente libro di N. Boumal [2]. Per iniziare a sperimentare gli algoritmi di ottimizzazione Riemanniana, raccomandiamo la toolbox Manopt [1].
References:
[1] Nicolas Boumal et al. “Manopt, a Matlab Toolbox for Optimization on Manifolds”. In:
Journal of Machine Learning Research 15.42 (2014), pp. 1455–1459.
[2] Nicolas Boumal. An introduction to optimization on smooth manifolds. Cambridge
University Press, 2023.
Aula Seminari, Dipartimento di Matematica
Managing Pedestrian Flows in Crowded Museums
16.00 – 22 maggio 2024
Stefano Sicilia (Gran Sasso Science Institute)
Aula Riunioni, Dipartimento di Matematica
Stabilization of a Matrix Via a Low Rank-Adaptive Matrix ODE
Let A be a square matrix with a given structure (e.g. real matrix, sparsity pattern, Toeplitz structure, etc.) and assume that it is unstable, i.e. at least one of its eigenvalues lies in the complex right half-plane. The problem of stabilizing A consists in the computation of a matrix B, whose eigenvalues have negative real part and such that the perturbation Δ = B − A has minimal norm. The structured stabilization further requires that the perturbation preserves the structural pattern of A. We solve this non-convex problem by a two-level procedure which involves the computation of the stationary points of a matrix ODE. We exploit the low rank underlying features of the problem by using an adaptive-rank integrator that follows slavishly the rank of the solution. We show the benefits derived from the low rank setting in several numerical examples, which also allow to deal with high dimensional problems.
Randomization in numerical linear algebra (NLA) is a powerful technique for reducing the complexity of many NLA algorithms. In this talk, we discuss three popular (randomized) methods for computing low-rank approximations of matrices: randomized SVD, the (generalized) Nyström method and the CUR decomposition. We provide an overview of each method and study their accuracy and stability.