Semantic Kernel: l'SDK open source Microsoft per applicazioni LLM

Semantic Kernel, rilasciato da Microsoft il 17 marzo 2023, fornisce un SDK per .NET, Python e Java con concetti di Kernel, Plugin e Planner. Integrazione nativa con Azure OpenAI e M365 Copilot.

Open SourceAI Open SourceSemantic KernelMicrosoftSDKAgenticLLMAI

Origine e posizionamento

Semantic Kernel viene pubblicato da Microsoft il 17 marzo 2023 come SDK open source per l’integrazione di modelli linguistici nelle applicazioni enterprise. Il progetto adotta licenza MIT ed è rilasciato inizialmente per .NET e Python, con una successiva versione Java. La scelta di coprire tre linguaggi principali dell’ecosistema enterprise riflette il target del progetto: sviluppatori Microsoft-centric che vogliono introdurre capability LLM in applicazioni esistenti.

Rispetto a framework centrati su Python come LangChain o LlamaIndex, Semantic Kernel privilegia un’esperienza idiomatica per ciascun linguaggio e un’integrazione stretta con lo stack Microsoft.

Kernel, plugin e funzioni

Il concetto fondamentale è il Kernel, contenitore centrale che orchestra servizi AI, plugin e memoria. Un Kernel è configurato con uno o più connettori verso provider LLM — tipicamente Azure OpenAI o OpenAI — e con un insieme di plugin disponibili.

Un Plugin raggruppa funzioni invocabili. Le semantic functions sono definite attraverso un prompt template parametrizzato, con metadati che descrivono input e output. Le native functions sono funzioni nel linguaggio ospitante (C#, Python, Java) esposte al Kernel tramite attributi o annotazioni. Il Kernel unifica le due modalità: dal punto di vista del chiamante, invocare una funzione semantica o una funzione nativa è un’operazione simmetrica.

Planner

I Planner sono componenti che ricevono un obiettivo in linguaggio naturale e producono un piano di esecuzione combinando le funzioni disponibili. Il SequentialPlanner genera in anticipo una sequenza ordinata di chiamate, mentre lo StepwisePlanner pianifica ed esegue un passo alla volta, aggiornando il ragionamento in base agli output intermedi. L’evoluzione successiva del framework ha introdotto pattern di agent più generali che estendono e talvolta sostituiscono i planner originali.

Ecosistema Microsoft

Semantic Kernel si integra nativamente con lo stack enterprise Microsoft: Azure OpenAI per l’inferenza, Azure AI Search come vector store, la specifica OpenAPI come meccanismo standard per trasformare API esistenti in plugin, connettori per servizi Microsoft 365. L’integrazione con M365 Copilot lo posiziona come SDK di riferimento per estendere le capability di Copilot con skill proprietari.

Adozione

Il framework è adottato prevalentemente in contesti enterprise in cui esiste già un investimento sulla piattaforma Microsoft e dove il linguaggio primario è C# o Java. In questi scenari, la disponibilità di un SDK ufficiale con garanzie di supporto riduce l’incertezza nell’adozione di componenti LLM in applicazioni di produzione.

Link: learn.microsoft.com/semantic-kernel

Vuoi supporto? Sei sotto attacco? Stato dei servizi
Vuoi supporto? Sei sotto attacco? Stato dei servizi