Neuroimaging data management at the time of AI: a naked king with no clothes

Mattia Veronese

⏳ 3 min

Artificial intelligence is rapidly transforming neuroimaging, just as it is reshaping nearly every area of medicine. From automating image segmentation to predicting clinical outcomes, AI is embedding itself at every layer of the neuroimaging workflow: acquisition, image reconstruction, data processing, and even interpretation.

Yet beneath the surface of these advances lies a less glamorous but critical problem: research data infrastructure is struggling to keep up. Much of research neuroimaging data is still managed using basic folder systems with no versioning, no automated metadata systems, limited long-term preservation strategies. In practice, this means that even when we generate valuable datasets, their longevity and reproducibility are at risk. This makes very difficult to preserve data integrity, let alone track data evolution over time or reuse.

The complexity of doing it right

There are data management platforms out there, but most come with significant trade-offs. Some solutions are too expensive they’re out of reach for most labs (I’ve received quotes higher than €150k a year for a single academic license that are simply unfordable). Others are too complex they practically require a full-time engineer just to keep them running. And majority of these rely on external infrastructure that doesn’t always meet data protection standards or raises uncomfortable questions about data sovereignty and geopolitics.

So What Can Be Done?

I wish I had a simple answer. But my colleagues and I have been thinking deeply about this problem and discussing possible directions for a more open, sustainable, and compliant data infrastructure for neuroimaging research.

In our recent paper, we tried to capture a snapshot of the current landscape, drawing insights from a survey of 100 professionals across the field. It’s not a solution yet, but it’s a starting point. If AI is to truly revolutionize neuroimaging, we can’t ignore the invisible layer of infrastructure on which all innovation depends.

 

Publication: Loreggia Giacomo, Torino Gabriele, Vannoni Stefano, Sampaio, Inês Won, Squarcina Letizia, Moretto Manuela, Castellaro Marco, Brambilla Paolo, Maggioni Eleonora, Veronese Mattia. Neuroimaging Data Infrastructure in the Age of Big Data and AI: Habits, Challenges, and Opportunities (September 03, 2025). Available at http://dx.doi.org/10.2139/ssrn.5532561

•    •    •

La gestione dei dati di neuroimaging al tempo dell’Intelligenza artificiale: un re nudo senza vestiti

L’intelligenza artificiale sta trasformando rapidamente il neuroimaging, così come sta rimodellando quasi ogni ambito della medicina. Dalla segmentazione automatica delle immagini alla previsione degli esiti clinici, l’IA si sta integrando in ogni livello del flusso di lavoro del neuroimaging: acquisizione, elaborazione e persino interpretazione.

Eppure, sotto la superficie di questi progressi, si nasconde un problema meno affascinante ma cruciale: la nostra infrastruttura di ricerca sta faticando a tenere il passo. Gran parte dei dati di ricerca nel campo del neuroimaging è ancora gestita tramite semplici sistemi di cartelle. Nessun versionamento, nessuna integrità dei metadati, nessuna strategia di conservazione a lungo termine. In pratica, questo significa che anche quando generiamo dataset di valore, la loro longevità e riproducibilità sono a rischio. Diventa quindi molto difficile preservare l’integrità dei dati, per non parlare del tracciamento della loro evoluzione nel tempo o del loro riutilizzo.

La complessità del fare le cose per bene

Esistono piattaforme per la gestione dei dati, ma la maggior parte presenta compromessi significativi. Alcune soluzioni sono talmente costose da risultare inaccessibili per la maggior parte dei laboratori (mi sono stati proposti preventivi superiori ai 150.000 € l’anno per una singola licenza accademica, semplicemente insostenibili). Altre sono così complesse da richiedere praticamente un ingegnere a tempo pieno solo per mantenerle operative. Molte, inoltre, si basano su infrastrutture esterne che non sempre rispettano gli standard di protezione dei dati o sollevano interrogativi scomodi su sovranità dei dati e geopolitica.

Cosa si può fare?

Vorrei avere una risposta semplice. Ma i miei colleghi ed io stiamo riflettendo a fondo su questo problema, discutendo possibili direzioni per un’infrastruttura di dati più aperta, sostenibile e conforme per la ricerca nel campo del neuroimaging.

Nel nostro recente articolo abbiamo cercato di offrire una fotografia dell’attuale panorama, traendo spunti da un sondaggio condotto tra 100 professionisti del settore. Non è ancora una soluzione, ma è un punto di partenza. Se l’IA deve davvero rivoluzionare il neuroimaging, non possiamo ignorare lo strato invisibile di infrastruttura su cui poggia ogni innovazione.

 

Pubblicazione: Loreggia Giacomo, Torino Gabriele, Vannoni Stefano, Sampaio, Inês Won, Squarcina Letizia, Moretto Manuela, Castellaro Marco, Brambilla Paolo, Maggioni Eleonora, Veronese Mattia. Neuroimaging Data Infrastructure in the Age of Big Data and AI: Habits, Challenges, and Opportunities (September 03, 2025). Disponibile al link http://dx.doi.org/10.2139/ssrn.5532561

Mattia

•    •    •

*The phrase ‘The king is naked’ comes from Hans Christian Andersen’s fairy tale ‘The Emperor’s New Clothes’ and refers to a situation in which people are afraid to speak the truth because it contradicts popular opinion or challenges a powerful authority


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *

0
Would love your thoughts, please comment.x