1. Cos'è il Model Context Protocol
Il Model Context Protocol (MCP) è uno standard open source sviluppato da Anthropic e rilasciato a novembre 2024 che definisce un protocollo standardizzato per la comunicazione tra modelli AI (LLM) e sistemi esterni. In parole semplici: MCP è il linguaggio comune che permette a un agente AI di comunicare con il tuo CRM, il tuo database, il tuo file system, le tue API aziendali, senza dover scrivere codice di integrazione personalizzato per ogni connessione.
Prima di MCP, ogni agentic framework (LangChain, CrewAI, Vercel AI SDK) aveva il proprio modo di gestire le connessioni ai tool esterni. Questo significava che ogni integrazione doveva essere riscritta per ogni framework, e che non esisteva portabilità tra sistemi diversi. MCP standardizza questa comunicazione: un MCP server scritto una volta funziona con qualsiasi client compatibile (Claude, qualsiasi agente che implementa il protocollo).
L'adozione di MCP è stata rapida: entro il 2025, i principali provider AI (OpenAI, Google, insieme ad Anthropic) hanno annunciato supporto al protocollo. Aziende come Block, Replit, Zed e Sourcegraph hanno rilasciato MCP server per i propri sistemi. La community open source ha pubblicato centinaia di MCP server per strumenti popolari: GitHub, Slack, Google Drive, Notion, Postgres, Salesforce.
2. Come funziona MCP: architettura e componenti
L'architettura MCP si basa su tre componenti. Il MCP Host è l'applicazione AI che usa il modello: può essere Claude Desktop, un agente AI custom, un'app enterprise. Gestisce la connessione con i server MCP e l'interazione con l'utente o con il workflow automatizzato.
Il MCP Client è il componente che vive all'interno dell'host e implementa il protocollo di comunicazione verso i server. Gestisce la discovery dei tool disponibili, le chiamate ai tool, la gestione degli errori e il flusso dei dati.
Il MCP Server è il componente che espone le capacità: può essere un server che permette all'AI di leggere e scrivere file, interrogare un database Postgres, chiamare la API di Salesforce, leggere i ticket di Jira, o eseguire query su un vector store. Ogni MCP server definisce i tool che espone con una schema JSON che descrive parametri e output.
Il flusso di una chiamata MCP è: il modello AI decide che ha bisogno di un tool, il client invia una richiesta al server corretto nel formato MCP standard, il server esegue l'operazione (query al DB, chiamata API, lettura file) e ritorna il risultato in formato standardizzato, il modello usa il risultato per proseguire il ragionamento. Tutto in modo trasparente, senza che l'utente debba gestire nulla.
3. MCP per le aziende: casi d'uso e valore pratico
Il valore di MCP per le aziende è la drastica riduzione del costo di integrazione tra AI e sistemi esistenti. Prima di MCP, costruire un agente AI che interagisse con CRM + ERP + file system + email richiedeva centinaia di ore di sviluppo custom. Con MCP server già disponibili per Salesforce, SAP, Google Drive, Outlook, PostgreSQL, il tempo si riduce a giorni o settimane. Per capire come questo si inserisce nell'ecosistema degli agenti AI, leggi la guida agli agenti AI per aziende.
I casi d'uso aziendali più impattanti abilitati da MCP: un agente di customer service che accede in tempo reale al CRM per vedere lo storico del cliente, al gestionale per verificare le scorte, e al sistema di ticketing per aprire e aggiornare richieste - tutto tramite MCP server pre-costruiti. Un agente di analisi finanziaria che interroga il database contabile, legge i file Excel e genera report - senza uscire dall'ambiente aziendale. Un agente di HR che accede al sistema di gestione del personale, ai calendari e ai documenti contrattuali.
La differenza rispetto ai semplici webhook o alle API tradizionali è che MCP è bidirezionale e contestuale: l'AI può leggere ma anche scrivere, può gestire sessioni con stato, e la logica di quando e come chiamare i tool è gestita dal modello AI, non da logica hardcoded.
4. MCP vs Function Calling: differenze e quando usare cosa
Il Function Calling (o Tool Use) è il meccanismo già presente nelle API di OpenAI, Anthropic e Google che permette al modello di "chiamare" funzioni predefinite. MCP usa function calling sotto il cofano, ma aggiunge uno strato di standardizzazione e portabilità che il semplice function calling non offre.
Con il function calling nativo, ogni integrazione è specifica per il framework e il provider usato: un agente GPT-4 con tool per Salesforce non è portabile su Claude senza riscrivere le integrazioni. Con MCP, il server Salesforce funziona con qualsiasi client MCP-compatibile, indipendentemente dal modello AI usato.
La scelta pratica: per agenti semplici con pochi tool dedicati a un unico provider, il function calling nativo è sufficiente e più semplice da implementare. Per architetture enterprise con molti sistemi da integrare, dove si vuole portabilità e riusabilità delle integrazioni, MCP offre un vantaggio significativo nella manutenibilità a lungo termine.
5. Come iniziare con MCP: risorse e percorso pratico
Per un team tecnico che vuole sperimentare con MCP, il punto di partenza più semplice è Claude Desktop (l'app desktop di Anthropic, gratuita): supporta MCP nativamente e permette di configurare server MCP in pochi minuti tramite un file JSON di configurazione.
I MCP server più utili per un primo test: il Filesystem MCP server (ufficiale Anthropic, open source) che permette a Claude di leggere e scrivere file sulla propria macchina; il GitHub MCP server per accesso ai repository; il PostgreSQL MCP server per query su database; il Google Drive MCP server per documenti cloud.
Per un'implementazione aziendale, Yellow Tech supporta le aziende nella progettazione dell'architettura MCP: quali sistemi esporre tramite MCP server, come gestire l'autenticazione e la sicurezza degli accessi, come integrare MCP in agenti AI custom già in produzione. Per chi vuole anche automatizzare workflow senza sviluppo custom, strumenti come n8n supportano MCP nativamente.
Domande frequenti
MCP è disponibile solo per Claude o funziona con tutti i modelli AI?+
MCP è un protocollo open source sviluppato da Anthropic ma non vincolato a Claude. Nel 2025, OpenAI, Google e altri provider hanno annunciato supporto al protocollo. I framework agentic come LangChain e CrewAI stanno integrando il supporto MCP. L'obiettivo dichiarato è che diventi il standard universale per le integrazioni AI, simile a come REST è diventato lo standard per le API web.
Un'azienda senza sviluppatori può implementare MCP?+
La configurazione base di MCP server già esistenti su Claude Desktop è accessibile anche con competenze tecniche limitate: si tratta di modificare un file JSON. Lo sviluppo di un MCP server custom per sistemi aziendali proprietari richiede invece competenze di sviluppo (TypeScript o Python). Per queste implementazioni, Yellow Tech fornisce il servizio di sviluppo MCP server su misura.
Quali sistemi aziendali hanno già un MCP server disponibile?+
La lista è in rapida crescita. A inizio 2026 sono disponibili MCP server per: GitHub, GitLab, Jira, Linear (project management); Salesforce, HubSpot (CRM); PostgreSQL, SQLite, MongoDB (database); Google Drive, Dropbox, Notion (file e documenti); Slack, Gmail (comunicazione); Stripe (pagamenti); e molti altri. Il repository ufficiale di Anthropic su GitHub mantiene una lista aggiornata dei server ufficiali e della community.
Come si gestisce la sicurezza con MCP in ambiente aziendale?+
MCP supporta meccanismi di autenticazione standard (OAuth 2.0, API key, token). I server MCP aziendali devono implementare: autenticazione per ogni connessione, autorizzazioni granulari (l'AI può leggere ma non scrivere certi dati), logging di tutte le operazioni, rate limiting per prevenire usi anomali. Il principio del minimo privilegio si applica anche qui: ogni agente AI deve accedere solo ai sistemi e ai dati strettamente necessari per il suo caso d'uso.