Publications

Explore our research publications: papers, articles, and conference proceedings from AImageLab.

Tip: type @ to pick an author and # to pick a keyword.

A Workflow for Cost- and Time-Aware Refueling Itinerary Optimization

Authors: Savarese, Marco; Zaccagnino, Carmine; De Blasi, Antonio; Salici, Giacomo; Cascianelli, Silvia; Vezzani, Roberto; Grazia, Carlo Augusto

The complete workflow of the RI-PIENO framework is presented, a system for refueling itinerary optimization that extends the original PIENO … (Read full abstract)

The complete workflow of the RI-PIENO framework is presented, a system for refueling itinerary optimization that extends the original PIENO design. While prior work introduced the conceptual modules of RI-PIENO, their operational pipeline was not described in detail. This study makes the workflow explicit, covering the end-to-end process from CAN Bus data acquisition and stop detection to the construction of daily trip graphs, refueling optimization, and mileage prediction. By clarifying the sequence of operations, the contribution provides a reproducible and extensible foundation for future research and development.

2026 Relazione in Atti di Convegno

An Investigation on Incremental Learning from Unbalanced Streamed Data

Authors: Borghi, Guido; Graffieti, Gabriele; Vezzani, Roberto

Published in: LECTURE NOTES IN COMPUTER SCIENCE

2026 Relazione in Atti di Convegno

Apprendere attraverso tempo, task e modelli: il trasferimento di conoscenza in sistemi in evoluzione

Authors: Panariello, Aniello

Con la crescente diffusione delle tecnologie di intelligenza artificiale, i moderni sistemi di apprendimento operano in ambienti sempre più dinamici, … (Read full abstract)

Con la crescente diffusione delle tecnologie di intelligenza artificiale, i moderni sistemi di apprendimento operano in ambienti sempre più dinamici, in cui distribuzioni dei dati, task e obiettivi evolvono nel tempo. I paradigmi statici tradizionali faticano a tenere il passo con tali mutamenti, con conseguente degrado delle prestazioni, perdita di conoscenze acquisite o riaddestramenti poco efficienti. Affrontare tali sfide richiede meccanismi capaci di trasferire conoscenza attraverso dimensioni temporali e strutturali, dai dati sequenziali ai flussi di task, fino al riuso e alla combinazione di interi modelli preesistenti. Questa tesi analizza come i sistemi di apprendimento possano evolvere insieme ai propri ambienti, sfruttando informazioni strutturate e conoscenze pregresse. Il lavoro si articola in tre direttrici principali: la comprensione dei dati temporali, l'apprendimento continuo e la composizione di modelli, con l'obiettivo di comprendere come le informazioni apprese in un contesto possano essere riutilizzate o adattate in un altro. La prima parte è dedicata all'apprendimento temporale da dati visivi, considerando i flussi video come serie temporali strutturate. Viene proposta una formulazione basata sulla coerenza temporale per la localizzazione di anomalie (CSL-TAL) in assenza di annotazioni a livello di frame; seguono modelli probabilistici e rappresentazioni basate sul flusso per il tracciamento multi-oggetto (TrackFlow), e un approccio per la stima della distanza degli oggetti da visione monoculare (DistFormer), che integra un ragionamento centrato sull'oggetto nei processi temporali. Nel loro insieme, questi studi mostrano come l'informazione temporale possa essere sfruttata per ottenere rappresentazioni visive più generali e interpretabili. La seconda parte affronta l'apprendimento continuo, in cui i dati si presentano come flusso. CHARON propone un framework efficiente per il riconoscimento di azioni basato su scheletri, che combina mascheramento e compressione per ottimizzare memoria e stabilità. CGIL introduce invece un metodo di adattamento continuo per modelli visione-linguaggio di grandi dimensioni mediante generative latent replay, mantenendo le capacità zero-shot e consentendo l'apprendimento incrementale dei prompt. Questi contributi reinterpretano l'apprendimento continuo come una progressione temporale strutturata, intesa come una sequenza di task in evoluzione. La parte finale esplora il trasferimento di conoscenza tra modelli attraverso fusione e aritmetica dei modelli. Invece di adattare un singolo modello nel tempo, l'obiettivo è combinare modelli pre-addestrati per generare nuove capacità. Il framework PASTA mostra come componenti specializzati possano essere composti nello spazio dei parametri per generalizzare tra domini. Successivamente, vengono analizzate tecniche a basso rango (MoDER e Core Space) e basate sul gradiente (GradFix) per fondere modelli, consentendo la creazione di nuove reti tramite operazioni dirette sui parametri. Questi approcci permettono di sintetizzare reti specifiche per task, rappresentando una nuova forma di evoluzione nello spazio dei modelli anziché in quello dei dati. Nel complesso, la tesi offre una prospettiva unificata sul trasferimento di conoscenza nei sistemi in evoluzione. Collegando apprendimento temporale, adattamento continuo e composizione di modelli, reinterpreta l'analisi delle serie temporali come principio generale di trasferimento tra rappresentazioni che cambiano nel tempo. Il quadro che emerge evidenzia il ruolo di struttura, modularità e riuso nella costruzione di sistemi di apprendimento scalabili, adattivi e resilienti, capaci non solo di interpretare un mondo in trasformazione, ma anche di trasformarsi in risposta a esso.

2026 Tesi di dottorato

Apprendimento Continuo in Condizioni Rumorose e con Composizionalità

Authors: Millunzi, Monica

Per stare al passo con la natura in continua evoluzione dei dati, i moderni sistemi di intelligenza artificiale richiedono frequenti … (Read full abstract)

Per stare al passo con la natura in continua evoluzione dei dati, i moderni sistemi di intelligenza artificiale richiedono frequenti e costosi riaddestramenti su tutti gli esempi già visti, per evitare il fenomeno del catastrophic forgetting. Questa esigenza ha stimolato un crescente interesse verso il Continual Learning (CL), in cui i modelli apprendono in modo incrementale dai flussi di dati conservando al contempo le conoscenze acquisite. Tuttavia, nonostante i notevoli progressi, permane una fonte di incertezza spesso trascurata: la presenza di etichette rumorose o non affidabili. Le reti neurali profonde devono gran parte del loro successo a grandi dataset puliti, ma in contesti reali e dinamici tali condizioni ideali sono rare. Questo pone una domanda cruciale: come può un sistema continuare ad apprendere efficacemente quando la supervisione stessa è imperfetta? Per affrontare il problema dell’apprendimento con etichette rumorose in scenari incrementali, proponiamo Alternate Experience Replay (AER), una strategia che alterna fasi di apprendimento e “dimenticanza” del buffer, favorendo la separazione tra campioni puliti e rumorosi. In questo modo, il modello affina progressivamente le proprie rappresentazioni interne limitando la propagazione del rumore. A complemento, introduciamo Asymmetric Balanced Sampling (ABS), un meccanismo di campionamento che bilancia dinamicamente la conservazione di esempi puliti e complessi durante l’aggiornamento del buffer. La combinazione di questi approcci migliora la robustezza e la stabilità del modello, dimostrando come anche semplici meccanismi di replay possano ridurre l’impatto della supervisione imperfetta. La robustezza da sola, tuttavia, non basta. Una seconda sfida riguarda la capacità del modello di comporre e riutilizzare le conoscenze tra compiti diversi, proprietà nota come composizionalità. In questa tesi, mostriamo come rappresentazioni modulari e prospettive di ottimizzazione di secondo ordine possano favorire questa capacità. Introduciamo due paradigmi complementari: Incremental Task Arithmetic (ITA), che ottimizza ciascun modello addestrato su un singolo task individualmente, e Incremental Ensemble Learning (IEL), che ottimizza direttamente la loro composizione. Insieme, questi approcci permettono di combinare componenti apprese progressivamente in sistemi che non solo resistono alla dimenticanza, ma generalizzano per costruzione, adattandosi a nuove e inattese combinazioni di task di apprendimento. Queste due prospettive, robustezza alla supervisione rumorosa e adattamento composizionale, delineano un modello di Continual Learning resiliente e strutturato. Attraverso analisi empiriche approfondite, mostriamo come i meccanismi intrinseci delle reti neurali possano essere sfruttati per sviluppare modelli incrementali più affidabili e robusti. La tesi contribuisce alla ricerca nel campo del Continual Learning, migliorando la robustezza sia in presenza di supervisione rumorosa sia attraverso la composizione modulare della conoscenza. Forniamo una panoramica dello stato dell’arte, approfondimenti metodologici e studi sperimentali accurati su task incrementali complessi, con l’obiettivo di favorire lo sviluppo futuro di sistemi di apprendimento più adattivi e affidabili.

2026 Tesi di dottorato

Approcci di Deep Learning per l’Analisi di Immagini di Microscopia a Fluorescenza Confocale e l’Ottimizzazione dei Protocolli Sperimentali

Authors: Pianfetti, Elena

Il deep learning (DL) è uno strumento fondamentale nell’analisi moderna dei dati, in quanto consente l’estrazione automatica di pattern complessi … (Read full abstract)

Il deep learning (DL) è uno strumento fondamentale nell’analisi moderna dei dati, in quanto consente l’estrazione automatica di pattern complessi da dati ad alta dimensionalità. Nell’ambito dell’imaging biomedico, i metodi di DL vengono impiegati per automatizzare e migliorare l’interpretazione dei dati, un processo che richiede un notevole impegno di tempo se svolto manualmente da un operatore. In questa tesi mi sono concentrata sulla microscopia a fluorescenza confocale, una tecnica che fornisce rappresentazioni tridimensionali ad alta risoluzione di strutture cellulari e subcellulari. L’analisi dei dati confocali però, richiede spesso un ampio pre-processing e la segmentazione di cellule e organelli subcellulari, un processo difficile da automatizzare a causa della variabilità delle condizioni di acquisizione e dei setup sperimentali. In questa tesi ho sviluppato approcci di deep learning che eliminano la necessità di segmentare i singoli canali fluorescenti. I modelli sono stati invece addestrati utilizzando etichette deboli (weak labels) corrispondenti all’esito complessivo del saggio, consentendo la classificazione senza annotazioni a livello di pixel. Questa strategia è stata applicata ad un saggio biologico che coinvolge anticorpi monoclonali: il saggio di opsonofagocitosi (OPA). Nell’OPA, l’analisi ha raggiunto una classificazione accurata e ha inoltre dimostrato che il protocollo sperimentale poteva essere ottimizzato, mostrando che un singolo canale fluorescente era sufficiente per una corretta classificazione, invece dei quattro utilizzati nel protocollo originale. Questo risultato ha portato a una riduzione dei tempi di acquisizione e dei costi sperimentali. In una seconda linea di ricerca, condotta durante un tirocinio all’estero, ho studiato l’applicazione del DL per l’analisi di immagini confocali altamente multiplexate acquisite mediante una nuova tecnologia di imaging. Utilizzando SubCell, un modello di base (foundation model) per l’analisi cellulare e subcellulare, ho analizzato le rappresentazioni apprese (embeddings) delle immagini ottenute con questo nuovo metodo di acquisizione. Tale analisi ha fornito una valutazione oggettiva e basata sui dati dei potenziali vantaggi e limiti della nuova tecnologia. Nel complesso, questa tesi dimostra come il deep learning possa migliorare l’analisi delle immagini di microscopia confocale in diversi contesti sperimentali, aumentando l’efficienza, riducendo i costi e supportando i biologi nell’interpretazione e nell’analisi dei loro dati.

2026 Tesi di dottorato

CAMNet: Leveraging Cooperative Awareness Messages for Vehicle Trajectory Prediction

Authors: Grasselli, Mattia; Porrello, Angelo; Grazia, Carlo Augusto

2026 Relazione in Atti di Convegno

Dataless Weight Disentanglement in Task Arithmetic via Kronecker-Factored Approximate Curvature

Authors: Porrello, Angelo; Buzzega, Pietro; Dangel, Felix; Sommariva, Thomas; Salami, Riccardo; Bonicelli, Lorenzo; Calderara, Simone

2026 Relazione in Atti di Convegno

DOLFIN: Balancing Stability and Plasticity in Federated Continual Learning

Authors: Moussadek, Omayma; Salami, Riccardo; Calderara, Simone

Published in: LECTURE NOTES IN COMPUTER SCIENCE

Federated continual learning (FCL) enables models to learn new tasks across multiple distributed clients, protecting privacy and without forgetting previously … (Read full abstract)

Federated continual learning (FCL) enables models to learn new tasks across multiple distributed clients, protecting privacy and without forgetting previously acquired knowledge. However, current methods face challenges balancing performance, privacy preservation, and communication efficiency. We introduce a Distributed Online LoRA for Federated INcremental learning methodDOLFIN, a novel approach combining Vision Transformers with low-rank adapters designed to efficiently and stably learn new tasks in federated environments. Our method leverages LoRA for minimal communication overhead and incorporates Dual Gradient Projection Memory (DualGPM) to prevent forgetting. Evaluated on CIFAR-100, ImageNet-R, ImageNet-A, and CUB-200 under two Dirichlet heterogeneity settings,DOLFINconsistently surpasses six strong baselines in final average accuracy while matching their memory footprint. Orthogonal low-rank adapters offer an effective and scalable solution for privacy-preserving continual learning in federated settings.

2026 Relazione in Atti di Convegno

EARL: Embracing amnesic replay for learning with noisy labels

Authors: Millunzi, Monica; Bonicelli, Lorenzo; Porrello, Angelo; Credi, Jacopo; Kolm, Petter N.; Calderara, Simone

Published in: PATTERN RECOGNITION

Modern Deep Neural Networks struggle to retain knowledge in streaming data environments, often leading to forgetting during incremental training. Most … (Read full abstract)

Modern Deep Neural Networks struggle to retain knowledge in streaming data environments, often leading to forgetting during incremental training. Most Continual Learning (CL) approaches address this issue by rehearsing past data – stored in a replay buffer – while acquiring new knowledge. However, in practical scenarios, noisy labels can contaminate the replay buffer, undermining performance. This work builds upon the previous “May the Forgetting Be with You”, designed to tackle Continual Learning with Noisy Labels (CLN). By leveraging the distinct learning dynamics between correctly and incorrectly labeled examples, the method induces targeted forgetting to identify and filter out noisy labels. We propose EARL, which improves on its predecessor by introducing i) a detailed analysis of the learning dynamics occurring in the presence of noise, ii) a robust analysis under more realistic noise conditions, iii) an evaluation of performance using pre-trained backbones and modern prompt-based CL baselines, iv) a detailed study on the influence of different sampling strategies, v) experiments on Natural Language Processing (NLP) benchmarks. This work unravels the motivations and findings of the previous research, shedding light on the effectiveness of its components in achieving high performance and minimizing forgetting.

2026 Articolo su rivista

Enabling 8B Bitwise Autoregressive Image Generation on Edge GPUs

Authors: Vezzali, Enrico; Bolelli, Federico; Grana, Costantino; Benini, Luca; Li, Yawei

Visual Autoregressive (VAR) models face a severe "Memory Wall" on edge devices due to large model size and substantial KV-cache … (Read full abstract)

Visual Autoregressive (VAR) models face a severe "Memory Wall" on edge devices due to large model size and substantial KV-cache requirements. In this work, we analyze the Infinity VAR family (2B and 8B) and propose a compression pipeline for deployment on constrained NVIDIA Jetson systems. We diagnose critical bottlenecks: activation outliers reaching 353x the median and channel-skewed cache variance. To address this, we propose a hybrid pipeline combining SVDQuant—to structurally decouple weight outliers—and Asymmetric Per-Channel KV8 quantization. Our approach reduces the Infinity-8B footprint by 64% (37.1GB →13.3GB), fitting it on the mid-range Orin NX with a 4.1x speedup over Flux.1-dev (W4A4), while achieving superior aesthetic alignment (ImageReward 1.13 vs 0.935). Crucially, we also unlock entry-level feasibility for the Infinity-2B, compressing it from 16.0 to 7.71 GB to enable deployment on the Orin Nano. These results establish a new efficiency standard for high-fidelity generative AI at the edge. The code is available at https://github.com/Henvezz95/deepcompressor.

2026 Relazione in Atti di Convegno
2 3 »

Page 1 of 109 • Total publications: 1081