Mia-Platform come produttore e consumatore di MCP Server

9 minutes Leggi
23 Ottobre 2025

Overview

  • L’integrazione dell’AI agentica nelle applicazioni software richiede una delivery rapida e soluzioni standardizzate.
  • Il Model Context Protocol (MCP) consente un’operatività fluida per gli sviluppatori attraverso developer platform stratificate.
  • Una internal developer platform (IDP) che produce e consuma MCP server diventa un hub self-service efficiente per accelerare i flussi di sviluppo.

Gartner suggerisce che un crescente numero di applicazioni software integrerà verosimilmente l’AI agentica nei prossimi anni. Ma qual è l’anello mancante che unisce applicazioni agentiche sempre più complesse, la necessità di fornire software più velocemente e l’urgenza di standardizzare le soluzioni?

Il Model Context Protocol (MCP) potrebbe essere la chiave per astrarre questa complessità e consentire agli sviluppatori di operare senza soluzione di continuità su tutti gli strati dell’ecosistema della piattaforma.

Inoltre, una internal developer platform (IDP) che agisce sia come produttore che come consumatore di un MCP server abilita una condivisione dei tool più fluida, sicura ed efficiente all’interno dell’ecosistema. Può infatti produrre MCP server che espongono API o strumenti utili e consumare altri MCP server, rendendo la piattaforma un hub self-service che accelera i flussi di sviluppo per molteplici scopi: scoperta, componibilità, creazione, deployment e monitoraggio.

 

Che cos’è il Model Context Protocol?

La diffusione dell’AI generativa (GenAI) ha causato una crescita esponenziale delle fonti di dati e dei servizi, complicando enormemente il panorama già vasto e variegato delle API esistenti per la scoperta e la chiamata delle funzioni. L’MCP è rivoluzionario grazie al suo ruolo di mediazione, facilitando l’interazione tra i modelli linguistici (LLMs) e i servizi.

Fondamentalmente, l’MCP è uno standard open-source che consente la connessione e l’intelligibilità reciproca tra fonti di dati, strumenti, flussi di lavoro e programmi AI. Gli sviluppatori possono scegliere di condividere i propri dati tramite un MCP server o creare applicazioni AI (MCP client) che interagiscono con quel server. È come avere un ponte di comunicazione che aiuta entità che parlano lingue diverse a comprendersi, snellendo e ottimizzando l’interazione. In sostanza, un protocollo standardizzato che consente all’AI di richiedere informazioni e di eseguire azioni su sistemi esterni. Questa standardizzazione rimescola significativamente le carte in tavola perché tale mediazione semplifica l’integrazione delle API indipendentemente dai protocolli API sottostanti.

 

Anatomia del Model Context Protocol

L’MCP è un framework di comunicazione con un duplice ruolo. Uno è esporre le capability (strumenti, dati e funzioni) ai sistemi AI, rendendole visibili al modello in modo standardizzato; l’altro è recuperare informazioni contestuali in tempo reale ed eseguire azioni complesse su sistemi esterni in risposta a una query.

Gli elementi fondamentali dell’MCP sono:

  • MCP Server: l’intermediario che fornisce contesto, dati e funzionalità ai client MCP, convertendo le informazioni provenienti da fonti esterne in formati che i modelli di AI (come gli LLM) possono comprendere.
  • MCP Client: il messaggero che veicola le richieste tra MCP server e il modello AI.
  • MCP Host: l’applicazione AI che incapsula il client MCP. È il punto di interazione con l’utente, che si tratti di un IDE intelligente, di un’interfaccia conversazionale o di un agente personalizzato.

Strumenti e cataloghi di risorse completano il quadro per offrire, rispettivamente, funzioni specifiche e contesto. Con un pizzico di immaginazione, l’MCP potrebbe essere paragonato al centro di comando del cervello umano. Proprio come il cervello accede dinamicamente a memorie specifiche e abilità motorie per formulare una risposta o intraprendere un’azione utilizzando un linguaggio comune fatto di segnali, il framework MCP coordina il flusso di informazioni per facilitare e migliorare l’output del modello AI definendo un protocollo standardizzato per l’accesso a fonti diverse.

È importante notare, tuttavia, che l’MCP è diverso dalla Retrieval Augmented Generation (RAG), anche se possono lavorare insieme e completarsi a vicenda. Lo scopo del RAG è recuperare informazioni da una base di conoscenza per arricchire una risposta dell’AI, ma il risultato rimane statico. L’MCP si concentra sull’abilitare gli agenti in modo che possano eseguire azioni critiche e multi-step nel mondo reale, in modo dinamico.

Quindi, supponiamo che vogliate cucinare il vostro piatto preferito dal vostro fidato ricettario di prima mano. Recuperare la memoria di una ricetta specifica è solo il primo passo, ma innesca anche i comandi del cervello alle mani per mescolare gli ingredienti nelle giuste proporzioni, agli occhi per leggere gli appunti e alla lingua per assaggiare (e cercare di creare un piatto perfetto). Allo stesso modo, l’MCP non si limita a recuperare il contesto, ma fa da mediatore per consentire agli agenti di eseguire azioni nel mondo reale basate su quel contesto.

 

Mia-Platform come hub self-service intelligente

Immaginate che gli sviluppatori possano interagire fluidamente con un ecosistema di piattaforma coeso direttamente dal loro IDE per controllare le risorse della piattaforma. Ora, considerate che le capacità AI di questa piattaforma sono un elemento fondamentale in un ecosistema più ampio, potenziato dall’AI su ogni livello.

Mia-Platform è un esempio concreto di questa dualità perché può svolgere entrambi i ruoli nell’architettura di comunicazione dell’MCP. In altre parole, una internal developer platform che agisce sia come produttore che come consumatore di un server MCP diventa un hub self-service intelligente, un ecosistema unico che produce e consuma servizi per consentire un percorso fluido attraverso tutto il ciclo di vita del software.

 

Mia-Platform come produttore di un MCP server

La Mia-Platform Console ospita e serve un MCP server che espone le risorse della piattaforma alle applicazioni AI, che agiscono come consumatori. Questo MCP server fa mediazione informando le applicazioni AI sugli strumenti disponibili della piattaforma e sulla sua knowledge base, e su come interagire con essi. Ad esempio, l’MCP server può concedere a un assistente AI, come Mia-Assistant, l’accesso conversazionale alle risorse della piattaforma, come i cataloghi, per interagire con la piattaforma in modo intelligente e consapevole del contesto. Questo ruolo di produttore consiste essenzialmente nel rendere le capacità della piattaforma scopribili e utilizzabili tramite l’MCP.

Uno sviluppatore può dare un prompt direttamente a Mia-Assistant per creare un progetto:

  1. Richiesta di azione interna: La richiesta dell’utente è “Crea il progetto Mia-Platform Playground nel tenant Demo Live usando tutte le impostazioni predefinite”. Questa è un’azione amministrativa e di configurazione che si svolge interamente all’interno dell’ambiente della Mia-Platform Console.
  2. Esecuzione di strumenti interni: Mia-Assistant, agendo come client MCP, chiama le funzioni esposte dalle API interne della piattaforma. I passaggi includono:
      • list_tenants… (per verificare il tenant).
      • create_project_from_template (lo strumento d’azione primario).
  3. Contesto interno: L’intera risposta dettagliata, che include l’ID del Progetto, gli URL dell’Host, i Namespace, il repository GitLab e l’elenco delle funzionalità abilitate (Sicurezza, Monitoraggio, Template di flusso di lavoro migliorato), sono dati operativi proprietari generati e gestiti dalla Mia-Platform Console.

L’MCP server della Mia-Platform Console sta producendo una sua core function (creazione e configurazione del progetto) e il contesto interno affinché Mia-Assistant (il client) lo consumi in modo conversazionale. La piattaforma è la fonte e l’esecutore dell’attività—la capacità di creare un progetto—utilizzando i propri dati, API e logica interna.

È interessante notare che si può anche continuare la conversazione con ulteriori prompt—creare un microservizio, testare il codice, monitorare—e le risposte saranno sempre contestualmente rilevanti e adatte alle proprie esigenze.

Comunque, l’MCP server della Mia-Platform Console è anche accessibile in remoto, il che significa che client AI esterni (come Visual Studio Code) possono connettersi ad esso utilizzando l’endpoint del server disponibile per la loro configurazione. Questa funzionalità migliora la flessibilità, poiché gli utenti possono comunicare ed eseguire operazioni sui loro progetti utilizzando un MCP server sempre attivo e sempre aggiornato con gli ultimi strumenti e prompt della Mia-Platform Console.

 

Mia-Platform come consumatore di un MCP server

Quando Mia-Assistant agisce come consumatore, il suo client MCP integrato può connettersi e richiedere informazioni da più MCP server in aggiunta al MCP server della console. In tal caso, Mia-Assistant può agire come un client MCP integrato in grado di interrogare e interagire con sistemi esterni; per esempio, strumenti DevOps specifici—come Git, Grafana e Prometheus—e altri come Jira, tramite MCP server creati da tali sistemi. Ciò consente a Mia-Assistant di recuperare dati da sistemi esterni ed eseguire azioni come parte del completamento di attività o flussi di lavoro, espandendo la portata e il potenziale di automazione della piattaforma oltre i propri confini.

Prendiamo il seguente esempio:

Uno sviluppatore chiede a Mia-Assistant di aiutare a implementare una funzionalità dicendo qualcosa del tipo: “Sul progetto Insurance Hub, cosa mi manca per implementare le funzionalità descritte nella storia BCK_001?”

  1. Recupero delle informazioni: Mia-Assistant (il consumatore) utilizza uno strumento preconfigurato per connettersi a un MCP server esterno di Jira (il produttore). Chiama la funzione GET_JIRA_ISSUE per recuperare i dettagli del ticket della storia BCK_001.
  2. Analisi e azione: Mia-Assistant analizza le informazioni del ticket e determina che è richiesta una nuova raccolta di dati.
  3. Proposta: L’AI risponde allo sviluppatore con una proposta chiara e attuabile: “Sulla base della storia BCK_001, è necessario aggiungere una raccolta con i seguenti campi…Vuoi che proceda con la creazione delle raccolte mancanti?”
  4. Esecuzione: Quando lo sviluppatore risponde “Sì”, Mia-Assistant chiama un altro strumento—questa volta una funzione CREATE_COLLECTIONS dal MCP server di Mia-Platform—per integrare le nuove raccolte di dati nel progetto.

Questo flusso continuo mostra come la piattaforma agisca come un consumatore intelligente, recuperando informazioni da un servizio esterno (Jira) per proporre in modo proattivo ed eseguire un’attività all’interno del proprio ambiente.

 

Conclusione

Le applicazioni agentiche hanno iniziato a riempire il mercato, richiedendo innovazione e standardizzazione senza compromettere la velocità di delivery e la sicurezza. Il model context protocol è un ponte di comunicazione standardizzato che consente alle applicazioni di AI di comunicare facilmente con sistemi esterni, astraendo così questa complessità.

Mia-Platform assolve a entrambi i ruoli dell’architettura di comunicazione del model context protocol, non solo esponendo le API della console tramite il proprio MCP server, ma anche consumando funzioni da più MCP server esterni.

Espandete le vostre possibilità e scegliete Mia-Platform per costruire applicazioni agentiche totalmente operative che possano accelerare il vostro sviluppo.

Torna all'inizio ↑
INDICE
Overview
Che cos’è il Model Context Protocol?
Anatomia del Model Context Protocol
Mia-Platform come hub self-service intelligente
Mia-Platform come produttore di un MCP server
Mia-Platform come consumatore di un MCP server
Conclusione