Un modello dalla ricerca accademica
La maggior parte dei large language model che dominano il panorama AI proviene da laboratori industriali con budget miliardari. GLM-4, sviluppato dalla Tsinghua University in collaborazione con Zhipu AI, dimostra che la ricerca accademica può produrre modelli competitivi. Il progetto nasce dal gruppo di ricerca Knowledge Engineering (KEG) di Tsinghua, che dal 2020 lavora sull’architettura General Language Model — un approccio che combina autoregressive e autoencoding in un unico framework di pre-training.
La serie ChatGLM ha attraversato diverse iterazioni. GLM-4 rappresenta il salto generazionale: pre-training su dataset multilingue massivo, allineamento tramite RLHF (Reinforcement Learning from Human Feedback), e capacità che si avvicinano ai modelli di frontiera occidentali su benchmark standard.
Architettura e varianti
L’architettura GLM si distingue dai modelli decoder-only come GPT per l’uso di un obiettivo di pre-training basato su blank infilling: il modello impara a riempire porzioni di testo mancanti di lunghezza variabile, combinando comprensione bidirezionale e generazione autoregressiva. Questa scelta architetturale influenza il modo in cui il modello gestisce il contesto e produce testo.
GLM-4 viene rilasciato in varianti da 6B e 9B parametri, dimensioni che permettono l’esecuzione su hardware consumer con GPU da 16-24 GB di VRAM. Le versioni chat sono ottimizzate per il dialogo multi-turno, con finestre di contesto fino a 128K token nella variante estesa.
Function calling e strumenti
Una delle caratteristiche distintive di GLM-4 è il supporto nativo al function calling. Il modello può generare chiamate strutturate a funzioni esterne — API, database, strumenti di calcolo — seguendo schemi JSON definiti dall’utente. Questa capacità, già presente nei modelli di OpenAI, è implementata in GLM-4 a livello di fine-tuning, permettendo l’integrazione del modello in pipeline applicative che richiedono interazione con sistemi esterni.
Il supporto al code interpreter integrato consente al modello di generare ed eseguire codice Python per risolvere problemi matematici o analizzare dati durante la conversazione.
Licenza aperta e implicazioni
GLM-4 viene distribuito con una licenza aperta che consente l’uso commerciale. I pesi del modello, il codice di inferenza e le istruzioni per il fine-tuning sono disponibili su GitHub e Hugging Face. Per l’ecosistema AI globale, GLM-4 rappresenta un punto di riferimento: dimostra che gruppi di ricerca al di fuori del circuito Silicon Valley — OpenAI, Google, Anthropic, Meta — possono produrre modelli di qualità comparabile con risorse inferiori.
Link: github.com/THUDM/GLM-4
