Dalla riscoperta a ogni query alla conoscenza che si accumula
Nel RAG classico, a ogni nuova domanda l’LLM riparte da zero: indicizzazione, recupero, sintesi. Il modello, scrive Andrej Karpathy in un gist del 4 aprile 2026, “rediscovers knowledge from scratch on every question. There’s no accumulation.” Il pattern LLM Wiki sposta il baricentro: invece di rigenerare risposte sui documenti grezzi, il modello costruisce e mantiene un wiki persistente in Markdown che cresce nel tempo. Karpathy richiama esplicitamente il Memex di Vannevar Bush (1945): un archivio di conoscenza personale con tracce associative tra documenti.
Tre layer: fonti, wiki, schema
L’architettura è tripartita:
- Raw sources — i documenti immutabili, non modificati dal modello.
- The wiki — una directory di file Markdown generati e aggiornati dall’LLM, con cross-reference (es.
[[sources/...]]) verso le fonti. - The schema — un documento di configurazione (tipicamente un
CLAUDE.mdo equivalente) che codifica la struttura del wiki, le convenzioni di nomi, lo stile.
Il workflow operativo è in tre fasi distinte: ingest (un nuovo documento entra, l’LLM legge e aggiorna 10-15 pagine wiki correlate), query (le domande vanno al wiki, non alle fonti grezze; le risposte citano i source-link), lint (passate periodiche per individuare contraddizioni, link orfani, lacune).
Tooling: niente di esotico
Karpathy elenca strumenti disponibili oggi e ben conosciuti dagli sviluppatori: Obsidian come editor con graph view, Obsidian Web Clipper per ingest da web, qmd per la ricerca locale, Marp per generare presentazioni dal wiki, il plugin Dataview per query strutturate dentro Obsidian, Git per versioning. Nei commenti del gist sono elencate diverse implementazioni community-driven (SwarmVault, WeKnora, Keppi, llmwiki-cli, OmegaWiki, Lore…) — segnale che il pattern è caduto su terreno fertile fra chi sperimenta knowledge management con LLM.
Cosa significa in pratica
Il punto operativo del pattern è la manutenzione: i wiki personali falliscono storicamente perché aggiornare cross-reference è noioso e quindi non lo si fa. “LLMs don’t get bored, don’t forget to update a cross-reference,” scrive Karpathy. Per chi sta pensando una knowledge base aziendale o personale costruita su LLM locali, il pattern è una concreta alternativa al RAG vanilla: invece di un indice opaco, un artefatto leggibile, versionabile in Git, ispezionabile da un essere umano e migliorabile pagina per pagina.
Link: Gist Karpathy “LLM Wiki” · Memex (Vannevar Bush, 1945)
