noze. Open Intelligence, Secure Governance

Il payoff che dà un nome a oltre 25 anni di AI e Cyber Security costruite insieme, nella stessa squadra, sugli stessi progetti.

nozeAICyber SecurityDigital HealthWebOpen SourceR&DGovernance nozeOpen IntelligenceSecure GovernanceAICyber SecurityPayoffPosizionamento

Un payoff, non un cambio di rotta

Open Intelligence, Secure Governance è la scelta di dare un nome a quello che noze fa da oltre venticinque anni. Non un nuovo posizionamento, ma la decisione di comunicarlo con chiarezza — perché un’identità costruita nel tempo merita di essere raccontata.

Due principi che in noze sono sempre stati inseparabili: intelligenza aperta — costruita su modelli, codice e standard trasparenti — e governance sicura — pensata fin dall’inizio per proteggere, conformare e rendere verificabile ogni sistema.

Un team multidisciplinare, non due reparti

Oggi il mercato tratta AI e Cyber Security come discipline parallele: chi fa AI cerca di aggiungere sicurezza a posteriori; chi fa sicurezza prova a integrare AI come acceleratore. In noze le due competenze non sono mai state separate.

La ragione è organizzativa: chi progetta modelli di machine learning e chi analizza vulnerabilità e configura pentest è abituato a lavorare insieme — in presenza e da remoto — sugli stessi progetti, con strumenti condivisi e senza passaggi di consegna tra reparti. In pratica:

  • Ogni modello viene progettato con PII redaction, audit trail e policy di accesso fin dal primo prototipo — non come layer aggiunto dopo il deployment.
  • Il vulnerability assessment usa modelli di prioritizzazione del rischio, non solo regole statiche. Il motore di compliance classifica automaticamente i sistemi AI secondo l’EU AI Act.
  • Le policy di governance si applicano in tempo reale sia sull’output dell’AI sia sull’input dell’utente — ALLOW, BLOCK, REDACT.

Da dove vengono i prodotti

Le architetture on-premise con LLM locali nascono dal lavoro pluriennale su dati clinici che non potevano uscire dal perimetro ospedaliero. Il classificatore di rischio AI è il risultato diretto dei progetti di compliance già in corso con i clienti. Il monitoraggio continuo delle vulnerabilità si è consolidato rispondendo a esigenze concrete di PMI e PA.

Non c’è stata una scelta strategica di anticipare il mercato. C’è stato un percorso di lavoro quotidiano su AI e sicurezza che, col tempo, ha prodotto strumenti maturi nel momento in cui la normativa e il mercato li hanno resi necessari.

Lo stack attuale

Cinque prodotti, ciascuno con un ambito tecnico specifico:

  • CyberScan — scanner di vulnerabilità con asset discovery continuo, pentest automatizzato e prioritizzazione del rischio basata su modelli ML. Output: report tecnici, CVSS scoring, remediation plan.
  • DataGovern — piattaforma di compliance on-premise. Copre GDPR (registro trattamenti, DPIA, DSAR automatizzate), NIS2 (gap analysis, piano di remediation) e EU AI Act (classificazione rischio AI, documentazione tecnica). Singolo deployment, dati locali.
  • IntelliPA — workstation con LLM locali per la Pubblica Amministrazione. RAG su documenti interni, chatbot su regolamenti dell’ente, nessun dato trasmesso a servizi esterni. Acquistabile via MePA.
  • AIHealth — suite per il supporto clinico: RAG su dati FHIR/DICOM, modelli di supporto alla diagnosi, follow-up remoto. Architettura on-premise, percorso MDR pianificato. Sviluppato con l’esperienza dei progetti Meyer e CNR.
  • Admina Enterprise — versione enterprise del framework Open Source Admina (Apache 2.0). Proxy per chiamate AI con audit trail, PII redaction e policy bidirezionali. Scritto in Python e Rust.

Piano strategico 2026–2028

Il piano triennale prevede lo sviluppo di nuovi prodotti che estendono lo stack AI + Cyber e il consolidamento dei servizi di consulenza esistenti — CISO-as-a-service, architetture cloud-native, governance AI, R&D applicata — all’interno dello stesso posizionamento.

Vuoi supporto? Sei sotto attacco? Stato dei servizi
Vuoi supporto? Sei sotto attacco? Stato dei servizi