28 febbraio 2026
WebMCP, cos’è e come trasforma il tuo sito web in un canale operativo per gli agenti AI

Gli agenti AI stanno evolvendo rapidamente. Non si limitano più a suggerire contenuti o rispondere a domande: vogliono cercare prodotti, compilare moduli, completare prenotazioni, gestire carrelli.
Il problema è che oggi lo fanno in modo fragile: leggono il codice della pagina, interpretano il layout, simulano clic. È un approccio che può funzionare, ma non è strutturato.
La soluzione arriva da Google che il 10 febbraio ha rilasciato l’anteprima di WebMCP. Un cambio di paradigma: ora il sito può dichiarare in modo esplicito quali azioni sono disponibili per un agente AI.
Attualmente è in fase preview e non è ancora uno standard diffuso, ma si sta andando verso un fatto: il web sta evolvendo da interfaccia grafica a infrastruttura dialogante.
Ma che cos’è WEBMCP, come funziona e perché può cambiare il modo in cui i siti web comunicano con l’intelligenza artificiale? Scopriamolo nel dettaglio in questo articolo!
WebMCP, cos’è e come espone funzionalità del sito agli agenti AI
In parole semplici, WebMCP (acronimo di Web Model Context Protocol) è un protocollo lato browser che permette a un sito web di trasformare le proprie funzionalità principali in strumenti direttamente utilizzabili dagli agenti AI. L’intelligenza artificiale non si limiterà più a “leggere la pagina HTML grezza” come è accaduto finora: tramite API del browser si potrà consentire a un’AI di eseguire azioni su una pagina come se fossero funzioni definite con nome, parametri e output atteso.
Entrando nel dettaglio dell’architettura, WebMCP opera come un layer browser-side, un’estensione del concetto di Model Context Protocol che permette a un sito web di dichiarare in modo esplicito le proprie funzionalità agli agenti AI.
Non è un’API backend, non è un webhook e non richiede integrazioni server complesse: tutto avviene nel frontend tramite navigator.modelContext. Questo oggetto funge da ponte tra il sito e l’agente, consentendo di registrare strumenti (o “tool”) che l’agente può scoprire, leggere, invocare con parametri strutturati e ricevere come output dati definiti e coerenti.
WebMCP supporta due modalità operative principali. La prima è l’API dichiarativa, basata su HTML: elementi standard come form possono essere estesi con attributi MCP per trasformarli in strumenti invocabili. In questo modo l’agente non “vede” semplicemente un form, ma uno strumento con parametri chiari e definiti. Questo approccio è semplice, non richiede JavaScript aggiuntivo ed è ideale per azioni standard come ricerca, filtraggio o invio di dati di base. Il limite è che funzionalità più complesse diventano difficili da gestire e il controllo sullo schema è ridotto.
La seconda modalità è l’API imperativa, basata su JavaScript, che permette di registrare strumenti più articolati direttamente nel browser. Qui ogni tool è un vero e proprio contratto funzionale: il sito definisce nome, parametri richiesti e output atteso, mentre l’agente può invocare la funzione con dati strutturati e ricevere risposte tipizzate. Questo approccio permette di gestire flussi complessi, orchestrare processi e rendere le interazioni tra agenti e sito affidabili e scalabili.
Un elemento fondamentale di WebMCP è il Tool Contract, che integra sicurezza e controllo. Ogni strumento può richiedere conferme per azioni sensibili, applicare policy di esecuzione e registrare log per audit. In pratica, anche operazioni delicate come invio dati, modifiche di account o workflow interni possono essere eseguite dagli agenti senza compromettere la governance del sito, garantendo allo stesso tempo un’interazione sicura e tracciabile.
WebMCP e piattaforme proprietarie: cosa cambia davvero
In un sito sviluppato su piattaforma custom, oggi un agente AI, per interagire con quel sito deve leggere il DOM, interpretare bottoni e form, dedurre stati e simulare click come farebbe un utente umano. È un approccio fragile: basta modificare una classe CSS, cambiare la struttura di una pagina o riorganizzare il layout perché l’automazione si rompa.
Con WebMCP il punto di accesso non è più l’interfaccia ma la funzionalità dichiarata. Il sito può esporre capability strutturate — ad esempio search, createRequest, updateProfile, submitForm, bookSlot — che non dipendono dalla grafica ma dalla logica applicativa sottostante.
In pratica, ogni azione rilevante diventa una capability formalizzata, simile a una mini-API interna, orchestrabile da un agente ma governata dal sito; significa passare da un sito “navigabile” a un sito “programmabile”, dove le interazioni non vengono dedotte dall’interfaccia ma dichiarate come strumenti utilizzabili in modo controllato, tracciabile e sicuro.
Impatto su SEO e strategia digitale
Per anni la SEO ha lavorato su tre assi fondamentali: rendere i siti leggibili dai motori di ricerca, strutturare i contenuti con dati semantici e facilitare il crawling. L’obiettivo era migliorare l’indicizzazione e presidiare le SERP. Con WebMCP si aggiunge un livello ulteriore: non basta più essere comprensibili, bisogna diventare utilizzabili dagli agenti AI.
La differenza è sostanziale. La SEO tradizionale ottimizza contenuti per essere trovati, WebMCP, invece, abilita funzioni per essere eseguite. Se i dati strutturati (come Schema.org) hanno insegnato ai motori “cosa” rappresenta un contenuto, un layer come WebMCP insegna agli agenti “cosa possono fare” su quel sito. Non si parla più solo di visibilità, ma di interazione diretta mediata da assistenti intelligenti.
Strategicamente questo cambia il concetto di traffico: non solo utenti che arrivano sul sito, ma agenti che eseguono azioni per conto degli utenti. Chi espone per primo strumenti strutturati e capability dichiarate potrebbe intercettare prima questi flussi operativi generati dagli assistenti AI integrati nei browser — come quelli sperimentali in Google Chrome — o in altri ambienti.
Non è solo un vantaggio tecnico, è un vantaggio competitivo:
- maggiore probabilità di essere selezionati dall’agente
- maggiore controllo sulle azioni eseguibili
- riduzione dell’intermediazione non controllata
- nuova fonte di conversioni e interazioni
Di conseguenza, la strategia digitale evolve dalla semplice ottimizzazione per ranking alla progettazione di ecosistemi interoperabili con l’AI. Così come le aziende che hanno adottato presto la SEO tecnica hanno consolidato la propria presenza organica, quelle che oggi iniziano a ragionare in ottica agent-ready potrebbero trovarsi in una posizione privilegiata quando l’interazione via AI diventerà uno standard operativo.
WebMCP: perché interessa anche al tuo e-commerce?
Come detto, WebMCP segna il passaggio dall’AI che interpreta al modello in cui l’AI agisce. Per quanto riguarda gli e-commerce, non si limita più a suggerire prodotti, riassumere contenuti o a rispondere a domande:può interagire direttamente con le funzionalità della piattaforma in modo strutturato.
Parliamo di agentic commerce: l’assistente AI può cercare prodotti secondo criteri complessi, configurarne le varianti, verificarne la disponibilità, aggiungerli al carrello e avviare il checkout invocando direttamente strumenti dichiarati dal sito tramite navigator.modelContext nel browser, ad esempio in ambiente Google Chrome.
Ecco che anche negli e-commerce l’intelligenza artificiale non simula clic né interpreta il layout, ma utilizza capability strutturate, con parametri tipizzati e output definiti, riducendo ambiguità ed errori anche quando l’interfaccia grafica cambia.
Lo stesso principio abilita un’automazione cross-platform più evoluta: un agente può interrogare un e-commerce, verificare dati in un’area riservata, interagire con un gestionale o completare un’operazione su una piattaforma servizi, non tramite integrazioni server-to-server tradizionali ma attraverso un layer agentico controllato dal browser. È un passaggio coerente con la visione promossa da Google verso protocolli aperti che rendano i siti programmabili e interoperabili con l’intelligenza artificiale, mantenendo al tempo stesso governance, policy di autorizzazione, conferme esplicite e tracciabilità delle azioni eseguite.
WebMCP: i prossimi step e cosa dobbiamo aspettarci
WebMCP è attualmente in fase preview su Google Chrome (versione Canary 146 con flag sperimentale attivo) ed è in discussione all’interno di un Community Group del World Wide Web Consortium (W3C). Non è quindi ancora uno standard consolidato né universalmente supportato, ma rappresenta una direzione chiara: portare nel browser un layer nativo per permettere agli agenti AI di interagire con le funzionalità dei siti in modo strutturato.
Nel breve periodo vedremo probabilmente:
- evoluzione delle API e del modello navigator.modelContext
- definizione più precisa dei contratti tra sito e agente
- chiarimenti su sicurezza, permessi e consenso utente
- prime sperimentazioni in ambienti enterprise e sandbox controllate
Nel medio periodo, potrà nascere un ecosistema di siti “agent-ready”, progettati per esporre capability dichiarative oltre ai contenuti.
Doweb e WebMCP: pronti a seguire l’innovazione!
In Doweb non stiamo semplicemente osservando questa evoluzione: stiamo già progettando siti e piattaforme con un’architettura orientata alle capability, pronte per dialogare con gli agenti AI. Anche se WebMCP è oggi in fase sperimentale su Google Chrome, stiamo adottando fin da ora un approccio agent-ready, così che i siti che realizziamo siano pronti ad attivare questo layer non appena diventerà standard. Per noi innovazione significa anticipare il cambiamento e trasformarlo in un vantaggio concreto e strutturale per le aziende clienti.
Cosa devono fare ora le aziende per essere al passo con i tempi?
Il primo passo è iniziare a ragionare in ottica strategica e architetturale.
Innanzitutto, è importante analizzare le funzionalità chiave del proprio sito o piattaforma: quali processi generano valore? Quali azioni potrebbero essere eseguite anche da un agente AI in modo strutturato (richieste, prenotazioni, configurazioni, consultazioni dati, generazione documenti)?
Il secondo passo è verificare l’architettura attuale: la business logic è separata dal front-end? I servizi sono centralizzati e ben definiti? Esistono API interne coerenti e documentate? Un sistema già modulare e ben strutturato è molto più semplice da rendere agent-ready.
Terzo elemento fondamentale: governance e sicurezza. Occorre definire fin da subito quali azioni potranno essere esposte, con quali livelli di autorizzazione, quali conferme utente e quali log di tracciamento. L’interazione AI deve essere controllata, non lasciata all’improvvisazione.
Infine, è utile adottare un approccio graduale: iniziare con use case pilota, testare alcune capability specifiche e misurarne impatto, stabilità e benefici operativi.
Non è una corsa all’ultima tecnologia, ma un percorso di maturità digitale: chi oggi struttura correttamente i propri servizi sarà pronto quando l’interazione tramite agenti AI diventerà un canale operativo stabile.
Realizziamo siti internet custom, sicuri e veloci: contattaci subito!



