MONAI Label: annotazione medica assistita da AI e integrazione con 3D Slicer, OHIF e QuPath

MONAI Label come sotto-progetto MONAI per l'annotazione AI-in-the-loop in imaging medicale, l'integrazione con 3D Slicer, OHIF Viewer/Cornerstone3D e QuPath, i paradigmi DeepGrow e DeepEdit, e l'active learning.

Digital HealthR&DOpen SourceAI MONAI Label3D SlicerOHIFCornerstone3DQuPathAnnotazioneActive LearningOpen SourceDigital HealthAI

Il collo di bottiglia dell’annotazione

Il principale vincolo dell’AI medicale non è l’architettura della rete né la disponibilità di hardware, ma la disponibilità di annotazioni cliniche di qualità. Per addestrare una rete di segmentazione tumorale servono volumi 3D con segmentazioni pixel-per-pixel eseguite da un radiologo qualificato — lavoro che richiede minuti o ore per volume, moltiplicato per centinaia o migliaia di casi.

Il costo è insostenibile per molti progetti. Una soluzione emergente è l’annotazione assistita da AI in loop: invece di annotare da zero ogni caso, il radiologo corregge le proposte di un modello AI iniziale. Man mano che il modello migliora (riaddestrato sui dati corretti), il lavoro di correzione diminuisce — idealmente fino ad accettare solo le proposte senza modifiche.

MONAI Label è il framework open source che implementa questo paradigma, parte dell’ecosistema MONAI.

MONAI Label

Annunciato nel 2021 come sotto-progetto del Project MONAI, MONAI Label è un server Python che espone modelli di AI medicale via API REST e si integra con i principali client viewer open source come plugin. La licenza è Apache 2.0; il repository è github.com/Project-MONAI/MONAILabel.

Architettura:

  • Server MONAI Label — applicazione Python (Flask-based) che carica una o più “app” (pipeline di AI) e le espone come endpoint HTTP
  • Client plugin — estensioni dei viewer (3D Slicer, OHIF/Cornerstone3D, QuPath) che inviano al server richieste di inferenza e ricevono risultati da visualizzare
  • Active learning backend — il server tiene traccia delle correzioni dell’utente, propone quali casi annotare prossimamente (strategia di active learning), e può riaddestrare il modello su nuove annotazioni

Paradigmi di annotazione

MONAI Label supporta diverse modalità di interazione:

DeepGrow

Interazione puntuale: l’utente clicca pochi punti all’interno e all’esterno della regione di interesse. Il modello (addestrato preliminarmente a risolvere questo task) genera la segmentazione. Utile quando non esiste un modello specifico per la struttura da segmentare — un modello DeepGrow “generico” si adatta a molte situazioni.

DeepEdit

Il modello propone una segmentazione iniziale completa, l’utente aggiunge click di correzione (aree mancanti, aree da escludere). Il modello aggiorna la segmentazione tenendo conto degli input utente. È un pattern human-in-the-loop ideale per la produzione di dataset annotati.

Auto-segmentation

Il modello ha già performance sufficienti da produrre segmentazioni senza intervento dell’utente. Utile per strutture ben caratterizzate (organi principali, grandi lesioni). MONAI Label ospita modelli pre-addestrati per diversi organi (fegato, rene, polmone, spleen, prostata, etc.).

Scribbles-based

L’utente traccia scribbles (tratti liberi) per indicare foreground/background; il modello completa la segmentazione. Più veloce di point-click in alcuni scenari.

Integrazione con 3D Slicer

Per 3D Slicer, MONAI Label fornisce un’estensione installabile dal ExtensionManager:

  • Il plugin aggiunge pannelli di interazione nel sidebar di Slicer
  • L’utente indica il server MONAI Label (URL + porta)
  • Seleziona un volume aperto e un’app del server
  • Esegue la segmentazione via AI
  • Corregge interattivamente; le correzioni sono trasmesse al server per active learning
  • Esporta le segmentazioni finali in formato DICOM SEG o NIfTI

Il pattern è plug-and-play: un centro clinico può deployare MONAI Label sul proprio hardware GPU (anche una singola workstation) e i radiologi che già usano 3D Slicer non hanno bisogno di cambiare strumento.

Integrazione con OHIF/Cornerstone3D

Per il viewer browser-based, MONAI Label ha un’estensione per OHIF Viewer (basata su Cornerstone3D dal 2022-2023). Il pattern è analogo: browser → server MONAI Label → ritorno della segmentazione renderizzata in OHIF. Non richiede installazioni desktop; adatto per scenari di revisione remota, centri multipli che accedono alle stesse pipeline.

Integrazione con QuPath (digital pathology)

QuPath (University of Edinburgh, open source) è il principale software open source per whole slide image analysis in patologia digitale. MONAI Label ha un’integrazione QuPath che porta il paradigma AI-assisted annotation anche alla patologia: annotazione di strutture nucleari, ghiandolari, di ROI tumorali su WSI, con le dimensioni che caratterizzano questo dominio (migliaia di pixel per lato).

Active learning

Un aspetto distintivo di MONAI Label è il ciclo di active learning integrato:

  1. Il server mantiene un pool di casi non annotati
  2. Dopo un’annotazione, il server può riaddestrare il modello (fine-tuning incrementale)
  3. Calcola una strategia di prioritizzazione dei prossimi casi da annotare — tipicamente basata su incertezza del modello (casi su cui il modello è meno sicuro sono più informativi da annotare)
  4. Presenta il prossimo caso all’utente

Questo ciclo consente di raggiungere performance di produzione con drasticamente meno annotazioni rispetto al pattern tradizionale (annotare X casi, addestrare, verificare). Il lavoro di annotazione diventa uno sforzo gestito, non un costo fisso.

Deployment

MONAI Label è pensato per essere deployato vicino all’utente:

  • Single workstation — GPU sufficientemente potente (RTX 3090/4090, A6000) ospita server + modelli locali
  • On-premise server ospedaliero — un server GPU centralizzato espone servizi MONAI Label a più radiologi che usano Slicer/OHIF
  • Cloud deployment — MONAI Label come Docker container su Kubernetes in cloud privato/pubblico

L’architettura è agnostica al deployment: la stessa API funziona indipendentemente da dove gira il server.

Casi d’uso reali

Al maggio 2023 MONAI Label è in uso in diversi scenari:

  • Preparazione di dataset per trial clinici — quando una struttura deve annotare migliaia di scansioni per uno studio multicentrico
  • Trainees training — residenti di radiologia usano i modelli MONAI Label per pre-segmentare, e imparano riflettendo sulle correzioni
  • Pianificazione radioterapica — segmentazione di organs at risk pre-pianificazione con correzione manuale del fisico/medico
  • Costruzione di atlas anatomici — segmentazione di centinaia di volumi per atlas cartografici
  • Teaching e ricerca in imaging universitaria

Rapporto con TotalSegmentator

Un’alternativa che emerge nello stesso periodo è TotalSegmentator (vedi articolo dedicato prossimo), una rete nnU-Net addestrata su 104 strutture anatomiche in TC corpo intero. TotalSegmentator produce segmentazioni automatiche di qualità eccellente senza input utente. I due strumenti sono complementari:

  • TotalSegmentator — auto-segmentation fissa su tassonomia pre-definita (104 strutture TC)
  • MONAI Label — piattaforma di annotazione assistita per qualsiasi struttura, con ciclo di adattamento al contesto

In deployment reali i due coesistono: TotalSegmentator per segmentazioni standardizzate, MONAI Label per strutture o task non coperti da modelli pre-addestrati.

Nel contesto italiano

Gruppi italiani iniziano ad adottare MONAI Label:

  • IRCCS oncologici — IEO, IRST, INT — per preparazione dataset interni
  • Università — Politecnico di Milano, Torino, Bologna, Trento, Verona — in progetti di ricerca
  • Radioterapia — centri italiani di radioterapia esplorano MONAI Label per autosegmentation di OAR (organs at risk)
  • Spin-off tecnologici — integrazione MONAI Label in soluzioni certificate di terze parti

Limiti al 2023

  • Gestione modelli — il versioning di modelli e la riproducibilità di training incrementali richiedono disciplina operativa
  • Performance su task specializzati — i modelli generici di MONAI Label possono essere inferiori a modelli custom addestrati sui dati locali; il pattern tipico richiede comunque una fase di fine-tuning
  • Documentazione — ampia ma frammentata; la curva di apprendimento è più ripida rispetto a tool commerciali con supporto dedicato
  • Certificazione regolatoria — MONAI Label base non è certificato; costruire prodotti certificati richiede il lavoro usuale di qualifica

Prospettive

Le direzioni attese:

  • Integrazione con modelli foundation medicali — l’arrivo di Segment Anything (Meta, aprile 2023) e di MedSAM (giugno 2023) aprirà il pattern prompt-based segmentation in cui un modello pre-addestrato generalista si specializza con prompt invece che fine-tuning
  • Multimodal annotation — supporto integrato a dati eterogenei (imaging + testo clinico + dati omici) in un unico ambiente
  • Uncertainty visualization — esposizione di mappe di incertezza all’utente, fondamentale per trust clinico
  • Integration con PACS clinici — la transizione da “strumento di ricerca” a “componente di workflow clinico” richiederà connettori a sistemi PACS aziendali

MONAI Label al 2023 è un tassello essenziale dell’ecosistema open source per AI medicale: colma il gap tra un modello in ricerca e la sua applicazione a dati clinici reali, dove le annotazioni sono costose e le pipeline devono adattarsi al contesto. La sua maturazione abbassa drasticamente il costo di entrata di un’organizzazione sanitaria nell’AI interna.


Riferimenti: MONAI Label, Project MONAI (github.com/Project-MONAI/MONAILabel). Licenza Apache 2.0. Integrazione con 3D Slicer, OHIF Viewer + Cornerstone3D, QuPath. DeepGrow, DeepEdit paradigms. Active learning backend. NVIDIA e community MONAI.

Vuoi supporto? Sei sotto attacco? Stato dei servizi
Vuoi supporto? Sei sotto attacco? Stato dei servizi