PYSANUM

PYSANUM

Year 2024/25

14.30 – 10 October 2024
Lorenzo Lazzarino (University of Oxford)
Aula Riunioni, Department of Mathematics
Sull’estrazione di valori singolari accurati da sottospazi approssimati

La decomposizione ai valori singolari (SVD) è uno strumento fondamentale dell’algebra lineare numerica, ma per matrici di enormi dimensioni il suo costo computazionale è proibitivo. L’approssimazione dei valori singolari è quindi cruciale in vari campi della matematica, dell’ingegneria e data science. Questa operazione è spesso parte di processi più ampi nei quali è possibile ottenere un’approssimazione dei sottospazi singolari tramite metodi come la bi-diagonalizzazione di Golub-Kahan, iterazioni sui sottospazi o tecniche randomizzate.

In questa presentazione introdurremo strumenti per estrarre valori singolari da approssimazioni ortonormali di sottospazi singolari, esaminando tecniche classiche come Rayleigh-Ritz e la proiezione SVD (su un lato), confrontandole con approcci più recenti come la SVD randomizzata (HMT) e il metodo di Nyström generalizzato (GN), che forniscono approssimazioni sorprendentemente significamente più accurate. Includeremo la necessaria introduzione alle approssimazioni di basso rango, un altro grande problema legato alla SVD, e alla randomizzazione, tecnica di grande impatto nell’algebra lineare numerica.

Analizzeremo infine l’accuratezza di queste tecniche utilizzando la teoria delle perturbazioni di matrice, per confrontare i vari metodi e giustificare le osservazioni dedotte da esperimenti numerici.

 14.30 – 21 October 2024
 Lorenzo Piccinini (Università di Bologna)
Aula Seminari, Department of Mathematics
LSQR troncato per problemi ai minimi quadrati matriciali e tensoriali

 

Siamo interessati alla soluzione numerica del problema ai minimi quadrati sia in forma matriciale
$$\min\limits_{X \in \mathbb{R}^{m \times m}} \Vert C_1C_2^T \, – \, A_1XB_1 \, – \, A_2XB_2\Vert_F$$

sia in forma tensoriale

$$\min\limits_{X \in \mathbb{R}^{m \times m\times \ldots \times m}} \Vert \mathcal{D} \,- \sum\limits_{i=1}^p \mathcal{X} \times_1 A^{(i)} \times_2 B^{(i)} \times_3 C^{(i)}\Vert_F$$

dove $C = C_1C_2^T$ e $\mathcal{D}$ hanno rango basso. Per chiarezza ci concentreremo sul caso p = 2,3, osservando che la generalizzazione a un numero maggiore di termini avviene in maniera naturale. Ci concentreremo inizialmente sulla derivazione dell’algoritmo LSQR in forma matriciale e tensoriale. Successivamente, deriveremo le rispettive versioni troncate, mostrando come, nei casi in cui la soluzione abbia basso rango, il troncamento influenzi l’algoritmo. Nel caso matriciale è particolarmente interessante il confronto con il metodo dei Gradienti Coniugati (CG), già studiato nella sua versione matriciale e troncata. Sempre nel caso matriciale, mostreremo un’applicazione al problema del Dictionary Learning. Per il caso tensoriale, mostreremo un’applicazione per la soluzione numerica di PDE.

 16.00 – 27 November 2024
 Giovanni Barbarino (Université de Mons)
Aula Riunioni, Department of Mathematics
Dual Simplex Volume Maximization for Simplex-Structured Matrix Factorization

La Fattorizzazione di matrici (MF) mira a decomporre una matrice di dati $X \in \mathbb{R}^{m \times n}$, dove le $n$ colonne rappresentano dei campioni di dimensione $m$, nel prodotto di due matrici più piccole, $W \in \mathbb{R}^{m \times r}$ e $H \in \mathbb{R}^{r \times n}$ , per cui $X \approx WH$. Spesso è cruciale imporre vincoli aggiuntivi ai fattori, come sparsità o non-negatività, per migliorare per esempio l’interpretabilità dei risultati.

Quando $W$ ha tante colonne quanto la sua dimensione affine più uno e tutte le colonne di $H$ sono stocastiche, si parla di fattorizzazione di matrici con struttura di simplesso (SSMF). Questo problema cerca un simplesso che racchiuda o approssimi al meglio i dati a disposizione. Il modello ha diverse applicazioni nel machine learning, con due esempi prominenti che includono l'”unmixing” di immagini iperspettrali e l’estrazione di topic nell’ambito dell’analisi testuale.

Nell’illustrare la teoria della SSMF, ci concentreremo sulle proprietà (separabilità, SSC) che rendono la fattorizzazione “unica”, e sui suoi legami con la Fattorizzazione di Matrici Non Negative (NMF). Presenteremo dunque alcuni degli algoritmi classici per calcolare la SSMF esatta quando esiste, e come si comporta in presenza di rumore. In particolare, discuteremo dell’Algoritmo delle Proiezioni Successive (SPA), delle sue varianti, e del metodo del Simplesso di Volume Minimo (MVES).

Introdurremo poi il concetto di dualità e lavoreremo sulla corrispondenza tra gli spazi primali e duali per fornire una nuova prospettiva sul come trovare un simplesso che modelli al meglio i dati. Dato una qualsiasi insieme $\mathcal S \subseteq \mathbb R^d$, il suo polare, denotato $\mathcal S^*$, è definito come
\[
\mathcal S^* := \left\{ \theta \in \mathbb R^d \, \big| \, \theta^\top x \le 1\,\, \text{ for all } x\in \mathcal S \right\}.
\]
\noindent Se $\mathcal S$ è un simplesso, allora $\mathcal S^*$ è un simplesso i cui vertici corrispondono alle facce di $\mathcal S$, e le relazioni di inclusione tra insiemi convessi sono invertite. Dopo un preprocessing, possiamo ridurre il problema a trovare una decomposizione per una matrice $$Y \in \mathbb R^{r-1 \times n}$$ che soddisfi $Y = P H$, con $H$ stocastica, o in maniera equivalente $\text{conv}(P)^* \subseteq \text{conv}(Y)^*$, che può essere scritto come $Y^\top \Theta \leq 1_{n \times r}$ dove $\text{conv}(\Theta) = \{ x \ | \ P^\top x \leq e \} = \text{conv}(P)^*$.

L’idea è dunque di massimizzare il volume di $\text{conv}(\Theta)$ nello spazio duale, legandoci così al metodo MVES che invece si proponeva di minimizzare il volume di $\text{conv}(P)^*$ nello spazio primale. Il problema finale sarà dato dal seguente modello
: dato $Y \in \mathbb{R}^{r-1 \times n}$, risolvere
\begin{equation} \label{eq:firstformupolar}
\max_{\Theta \in \mathbb{R}^{r-1 \times r}} \text{vol}\big( \text{conv}(\Theta) \big) \quad \text{ tale che } \quad Y^\top \Theta \leq 1_{n \times r}. \hspace{1cm} (1) \end{equation}
Discuteremo in dettaglio come risolvere (1) e delle sue garanzie di identificabilità quando i dati sono separabili, o quando la SSC (Condizione di Sufficiente Dispersione) è soddisfatta. Introduciamo anche il concetto di $\eta$-espansione dei dati per studiare anche cosa succede nei casi intermedi. Concludiamo fornendo degli esperimenti numerici su set di dati sia sintetici che reali, comparando il metodo sviluppato con SPA, MVES e altri algoritmi, e mostrando così che l’algoritmo proposto compete favorevolmente con lo stato dell’arte.

 16.30 – 12 December 2024
 Francesca Ballatore (Politecnico di Torino)
Aula Seminari, Department of Mathematics
Modelling brain tumour growth and ventricle deformation: a patient-specific numerical approach

Brain tumours represent one of the most complex challenges in medicine due to their often unpredictable localisation and variable malignancy. In particular, brain tumours are known for their aggressive spread, which hinders the efficacy of standard treatments. The growth of the tumour mass causes compression and displacement of surrounding healthy tissues, potentially altering the volume of cerebral ventricles and leading to increased intracranial pressure, which may result in severe neurological complications. Currently, the therapeutic protocol for brain tumours involves surgical resection, followed, if necessary, by radiotherapy and chemotherapy.

In this work, we propose a multiphase mechanical model to describe brain tumour growth, quantifying the deformations and solid stresses induced by tumour expansion. The model accounts for the influence of white matter fibre directions, which guide the tumour’s anisotropic growth. To construct realistic three-dimensional brain geometries and accurately represent the ventricles, the model incorporates patient-specific data obtained from magnetic resonance imaging (MRI) and diffusion tensor imaging (DTI). Through these integrations, the model enables an analysis of the mechanical impact of tumour growth on ventricular compression and adjacent healthy brain tissue.

The numerical results obtained through finite element simulations using the FEniCS software demonstrate the model’s accuracy in reproducing the complex dynamics of tumour growth and its mechanical impact on surrounding brain tissues. The insights provided by the model can support the development of targeted and personalised therapeutic strategies, improving the clinical management of patients with brain tumours.

[1] F. Ballatore, G. Lucci, and C. Giverso. “Modelling and simulation of anisotropic growth in brain tumours through poroelasticity: A study of ventricular compression and therapeutic protocols”. In: Computational Mechanics (2024).

[2] F. Ballatore, G. Lucci, A. Borio, and C. Giverso. “An imaging-informed mechanical framework to provide a quantitative description of brain tumour growth and the subsequent deformation of white matter tracts”. In: Mathematical Models and Computer Simulations for Biomedical Applications.
Ed. by G. Bretti, R. Natalini, P. Palumbo, and L. Preziosi. Springer Series, 2023.

 16.00 – 22 January 2025
 Bernardo Collufio (Gran Sasso Science Institute)
Aula Seminari, Department of Mathematics
 About Positivity of Runge-Kutta Semi-Lagrangian Scheme for BGK Equation

Semi-Lagrangian schemes have gained prominence in recent years for the numerical resolution of hyperbolic conservation laws, kinetic equations, fluid dynamics, and other applications. One for the main reason for their success lies in their excellent stability properties (they are not subject to the CFL condition, allowing the time step to be chosen larger compared to direct mesh-based methods). However, these methods are not conservative, and the preservation of invariants or positivity of the solution are not guaranteed. Positivity can be physically significant for certain applications, especially in the resolution of kinetic equations, where the solution represents a probability density that must inherently be positive. In this talk I will investigate the reasons why this property cannot always be ensured and how it can instead be enforced when solving the BGK equation, using some techniques applied recently for Runge Kutta IMEX schemes, while maintaining high order of accuracy and moment conservation.

 11.00 – 25 February 2025
 Francesca Santucci (IMT Alti Studi Lucca)
Aula Riunioni, Department of Mathematics
 Spatial Patterns of Laplacian Eigenmodes in Complex Networks
Complex systems consist of many interacting components, typically exhibiting features such as self-organization, critical transitions, or emergent phenomena.
Network science is particularly useful for studying these kinds of systems, modeling them as graphs, mathematical objects made of nodes (representing the system’s components) and links (representing their interactions).
Beyond graph theory, a more physics-inspired perspective offers additional tools (borrowed, in particular, from statistical physics) for analyzing networks.
Following this approach, we will explore the tight connection between dynamical processes on networks and the topology underneath them.
We will focus in particular on processes governed by the Graph Laplacian, denoted as $\hat{L}$, evolving over time as $\boldsymbol x(\tau)=e^{-\tau \hat{L}}\boldsymbol x(0)$. This equation is valid for diffusion, but also provides a first order description of more general dynamics near the steady state.
We will see the diffusion-based theoretical framework known as the Laplacian Renormalization Group, accounting for the communicability properties of a network and able to unveil its multiscale hierarchical nested structures.
Key tools in this framework, suggesting intriguing physical analogies, include the Graph Density Matrix, which quantifies diffusion streamlines between pairs of nodes, and the Graph Entropy, which measures the heterogeneity of the system’s state after a given diffusion time, and can be considered as an order parameter for second order transitions between diffusion aggregation phases.
We will show that such transitions identify classes of links based on diffusion timescales, corresponding to specific diffusivity modes in the Fourier space and revealing the graph’s topological organization. Finally, we will explain the deep connection between nested modules, Laplacian eigenmodes, and diffusion time scales in hierarchical modular graphs.
17.00 – 30 April 2025
 Marco Batisti (Università di Firenze)
Aula Riunioni, Department of Mathematics
Centrifugal compressor aeroacoustics: analytical and numerical modeling

A centrifugal compressor is a type of turbomachine that increases the pressure of a fluid by converting kinetic energy coming from a rotating component into potential energy. A centrifugal compressor stage consists of an impeller, which is the rotating component that transfers energy to the working fluid, and a diffuser, which converts the kinetic energy to potential energy, thereby increasing the static pressure.

To maximize the efficiency of centrifugal compressors, impeller rotational speeds have increased over the years, resulting in more demanding structural limits. In particular, fluid-structure interactions (FSI) are becoming critical from the preliminary design phases, requiring researchers to develop models that can quickly and accurately assess the aeromechanical integrity of the impeller, especially in terms of forced response.

In this presentation, a brief overview of the standard numerical approaches for forced response and flutter calculations on centrifugal compressor impellers will be given. After that, new models, both analytical and numerical, are proposed to quickly assess the aeromechanical risk of the impeller, with special emphasis on the impeller side cavities located between the impeller and the stationary components. These models are based on the propagation of acoustic waves in a compressible flow and were conceived to avoid solving the full set of Navier-Stokes equations to evaluate the forcing functions that excite the impeller. All the models were applied to a centrifugal compressor test case and the results obtained were compared with the benchmark solutions, showing a very good agreement. Although additional test cases should be considered to better assess the reliability of the models, they prove to be a very interesting tool for fast aeromechanical analysis.