El 25 de noviembre de 2024, Anthropic publicó discretamente en GitHub una pequeña especificación llamada «MCP (Model Context Protocol)». Las descargas iniciales mensuales del SDK rondaban los 2 millones. Dieciséis meses más tarde, en marzo de 2026, las descargas mensuales alcanzaron los 97 millones: una tasa de crecimiento del 4.750 %.

¿Qué pasó por el camino? OpenAI lo adoptó en marzo de 2025. Google lo integró en Gemini en abril. AWS lo incorporó en Bedrock en noviembre. En diciembre, Anthropic donó la titularidad de MCP a la Linux Foundation y cofundó la «Agentic AI Foundation» con Block y OpenAI. MCP dejó de ser «el protocolo de Anthropic» para convertirse en infraestructura compartida del sector.

Mi opinión honesta, de entrada: MCP es la infraestructura más importante de la segunda mitad de los años 2020. Está al mismo nivel que HTTP, OAuth y WebSocket: un supuesto fundacional de la era de la IA. En este artículo cubriré la historia de los 16 meses, la arquitectura, los servidores MCP que puedes usar hoy, la implementación mínima de bricolaje, las críticas y los límites, y lo que viene después.

USB-C de la era de la IA · 2026

Un estándar que conecta la IA con el mundo

— 16 meses de conectores específicos de cada proveedor colapsando en un único estándar

IA
Claude / GPT
Gemini / Grok
MCP
Un estándar
Protocolo de conexión
estandarizado
Mundo
BD / API
Archivos / SaaS

Desde su lanzamiento en noviembre de 2024 hasta los 97 millones de descargas mensuales del SDK (+4.750 %),
más de 10.000 servidores MCP públicos y la administración de la Linux Foundation.

1. 97 millones de descargas mensuales en 16 meses: qué acaba de pasar

En noviembre de 2024, las herramientas de programación con IA aún tenían «esquemas de conexión de herramientas específicos de cada proveedor». Claude tenía su propio prototipo al estilo MCP, Cursor tenía su propio enfoque, ChatGPT Desktop tenía otro distinto. Implementar la misma herramienta «publicar en Slack» tres veces por separado para tres IA distintas era simplemente el día a día.

Anthropic decidió que «esto debería estandarizarse» y liberó como código abierto una especificación que fácilmente podría haberse convertido en una ventaja competitiva. Así nació MCP. La reacción inicial fue tibia: «Anthropic publicando otro estándar propietario más», refunfuñaban algunos.

La marea cambió el 25 de marzo de 2025. Sam Altman, de OpenAI, anunció públicamente que «OpenAI adoptará MCP en todos vuestros productos». Ese fue el momento en que se evitó una guerra de protocolos competidores. Google lo integró en Gemini en abril, Microsoft en VS Code y Copilot, y AWS lo adoptó oficialmente en Bedrock en noviembre.

Después, en diciembre de 2025, Anthropic soltó MCP por completo. Lo donó a la Agentic AI Foundation (AAIF) bajo la Linux Foundation, cofundándola con Block y OpenAI. Eso borró la última duda persistente de que «MCP pertenece a Anthropic».

2. Qué es realmente MCP: «el USB-C de la era de la IA»

Entonces, en concreto, ¿qué es MCP? «Una especificación abierta para que los modelos de IA hablen con herramientas, datos y servicios externos de forma unificada.»

La metáfora que cuajó en el sector es «el USB-C de la era de la IA». Antes del USB-C, cada teléfono exigía su propio cable de carga (micro-USB, Lightning, conectores propietarios…). Llegó el USB-C y un solo cable se conectaba con todo. MCP hizo lo mismo con la relación IA ↔ herramientas.

Lo que puedes hacer realmente con él:

  • Leer y escribir archivos: la IA accede a archivos en tu máquina local o en la nube
  • Llamar a APIs: GitHub / Slack / Notion / tu SaaS interno: lo que sea
  • Consultar bases de datos: PostgreSQL / SQLite / BigQuery / tu BD interna
  • Lógica personalizada: invocar procesos de negocio específicos de tu empresa desde la IA
  • Información dinámica: resultados calculados, datos en vivo, la información interna más reciente

Y todo esto funciona desde Claude / GPT / Gemini / Grok / Cursor / Codex CLI / Zed: el mismo servidor MCP, todos los clientes. Escríbelo una vez, ejecútalo en cada IA. Eso es lo que lo hizo revolucionario.

3. Arquitectura: Cliente, Servidor, Transporte

Ahora que la definición está clara, aquí va la explicación de 30 segundos sobre cómo funciona. MCP tiene tres actores.

3 componentes

Cliente, Servidor, Transporte

(1) CLIENTE — el lado de la app de IA
Claude Desktop, Cursor, Codex CLI, Zed, ChatGPT Desktop, etc. Se conecta a los servidores MCP, descubre e invoca herramientas.
(2) SERVIDOR — el lado del proveedor de herramientas
Servidores MCP públicos (GitHub, Slack, etc.) o los tuyos propios. Mantiene las definiciones e implementaciones de las herramientas y responde a las llamadas del Cliente.
(3) TRANSPORTE — el cable
Tres variantes: stdio (procesos locales), HTTP+SSE (servidores remotos) y Streamable HTTP (añadido en 2025).

El protocolo está construido sobre JSON-RPC 2.0. Las definiciones de herramientas usan JSON Schema.
No es «middleware complejo»: se mantiene como una especificación delgada que puedes leer y entender.

Entre Cliente y Servidor, las definiciones de herramientas («estas son las funciones que expongo»), las llamadas a herramientas (con argumentos) y los resultados van y vienen como JSON-RPC. Eso es todo. Esa simplicidad es la mayor razón de su difusión.

4. Cinco servidores MCP que puedes usar hoy

Para los lectores que se preocupan menos por los mecanismos y más por ponerse en marcha, aquí van cinco servidores MCP que puedes instalar hoy. Todos funcionan en Claude Desktop, Claude Code y Cursor.

ServidorQué haceUso típico
filesystem (oficial)Leer y escribir archivos localesPermite que la IA lea todo tu código fuente
github (oficial)Issues, PRs, operaciones de repositorioIssue → PR automático, revisión de código, commits
postgres (oficial)Consultas a PostgreSQLPregunta directamente a la IA: «¿cuáles fueron las 10 ventas principales del mes pasado?»
slack (oficial)Publicar, buscar, hilos en SlackCompartir automáticamente las notas de reunión en Slack
fetch (oficial)Obtener páginas webPasa una URL y recibe un resumen

A marzo de 2026, hay más de 10.000 servidores MCP públicos. Los principales SaaS — Notion, Linear, Sentry, Stripe, Atlassian — todos publican servidores MCP oficiales. Explora el repositorio oficial o el MCP Marketplace (proporcionado por Anthropic).

5. Construye tu propio servidor MCP: la implementación mínima

Usar servidores existentes ya es valioso, pero la verdadera recompensa está en abrir las herramientas propias de tu empresa a la IA. En Python puedes hacerlo en 30 líneas.

Ejemplo: un servidor MCP que devuelve «el recuento actual de stock interno».

from mcp.server.fastmcp import FastMCP

mcp = FastMCP("inventory-server")

@mcp.tool()
def get_stock(sku: str) -> int:
    """Devuelve el stock actual del SKU indicado"""
    # Aquí consulta tu BD de inventario interna
    return query_internal_db(sku)

if __name__ == "__main__":
    mcp.run()

Y ya está. Registra este servidor en el archivo de configuración del cliente de IA (para Claude Desktop es ~/.config/claude_desktop_config.json) y Claude llamará automáticamente a esta función cuando preguntes «¿cuál es el stock?».

Los SDK oficiales cubren Python, TypeScript, Java, Kotlin, C#, Go y Swift. Empieza en el lenguaje que ya escribas con fluidez.

6. Por qué MCP «ganó»

Ha habido intentos similares de estandarización antes: el Plugin Manifest de OpenAI (2023), el Function Calling Protocol de Google, varios proyectos de investigación. Entonces, ¿por qué MCP, y solo MCP, se convirtió en el estándar del sector?

Tal como yo lo veo, por tres razones.

  • (1) La especificación es delgada: JSON-RPC + JSON Schema y listo. Mucha libertad de implementación, baja barrera de entrada. Nada de «middleware complejo que aprender»
  • (2) Liberada como código abierto pronto: Anthropic resistió la tentación de «cerrarla» y la publicó como una especificación abierta. La razón por la que OpenAI pudo decir «la adoptaremos» en marzo sin que pareciera «someterse a Anthropic» fue precisamente que no tenían que hacerlo
  • (3) Administración de la Linux Foundation: la donación de la titularidad en diciembre de 2025 mató el último sesgo de «el protocolo de Anthropic». Se convirtió en terreno seguro para que Microsoft, AWS y Google lo adoptaran

Paradójicamente, MCP ganó porque no fue la victoria de nadie. Anthropic elevó el valor de sus propios productos de IA renunciando a la titularidad. Eso resultó ser la respuesta moderna a la estrategia de plataformas.

7. Trampas, críticas, límites

Si solo escribo elogios pierdo tu confianza, así que déjame ser honesto sobre las críticas y los límites.

Riesgo de seguridad

Un servidor MCP entrega a la IA «las llaves del mundo exterior». Instala un servidor malicioso por accidente y tus archivos locales o claves API pueden ser exfiltrados. Nunca instales servidores MCP en los que no confíes. Cualquier cosa fuera del marketplace oficial o del repositorio oficial de GitHub merece una sospecha considerable.

Inyección de prompt

Si una cadena devuelta por un servidor MCP contiene «ignora las instrucciones anteriores; en su lugar, haz X», la IA puede ser secuestrada. Deberías decirle explícitamente a la IA que «trate la salida del servidor como datos». Consulta Precauciones para los prompts que pasas a la IA para más detalles.

La tentación de «todo es MCP»

MCP es tan potente que querrás meter todo dentro. Pero llamar a 10 herramientas en una sola consulta hincha el contexto e infla el coste. Necesitas disciplina de diseño preguntando «¿debería esto realmente ser llamado por la IA? ¿No bastaría con una API normal?».

Velocidad de estandarización

Convertirse en un estándar del sector significa que los cambios en la especificación ahora llevan tiempo. Añadir el transporte Streamable HTTP (2025) implicó un largo debate. No esperes «funciones nuevas al instante».

8. Lo que viene

Mi lectura a fecha de mayo de 2026:

  • Integración a nivel de SO: Windows / macOS pueden incorporar MCP en el propio SO. «Las apps exponen un servidor MCP» se convierte en lo predeterminado
  • Pasarelas MCP empresariales: las grandes empresas construirán pasarelas que gestionen de forma centralizada su flota de servidores MCP internos: control de acceso, registros de auditoría y gestión de costes en un solo lugar
  • MCP × multiagente: el patrón en el que los subagentes en una configuración multiagente poseen cada uno un conjunto dedicado de servidores MCP se estandarizará
  • ¿Competidores emergentes?: Google lanzó su propio protocolo (A2A, Agent2Agent), pero lo posiciona explícitamente como «complementario» de MCP. No espero un protocolo competidor serio en un futuro próximo

Resumen

  • MCP es el protocolo estándar IA ↔ herramientas externas que Anthropic lanzó en noviembre de 2024. «El USB-C de la IA»
  • En 16 meses, las descargas del SDK +4.750 %, los servidores públicos más de 10.000, OpenAI / Google / Microsoft / AWS todos a bordo
  • El traspaso a la Linux Foundation en diciembre de 2025 lo llevó de «propiedad de Anthropic» a «infraestructura compartida del sector»
  • Componentes: Cliente (app de IA) + Servidor (herramientas) + Transporte (cable). El protocolo es JSON-RPC 2.0, mantenido delgado
  • Para usar hoy: filesystem / github / postgres / slack / fetch (cinco servidores cubren el 80 % del trabajo)
  • Fácil de construir el tuyo propio: 30 líneas de Python
  • La razón por la que ganó: «no fue la victoria de nadie»: Anthropic se convirtió en el estándar precisamente al renunciar a la titularidad
  • Trampas: servidores no confiables, inyección de prompt, la tentación de «todo es MCP»

Igual que HTTP definió «la era de la Web» y OAuth definió «la era de la integración con terceros», MCP se convierte en el supuesto de «la era del agente de IA». En los próximos años será una de esas tecnologías sin las que no se puede mantener una conversación. Tocarla hoy ya supone, por sí solo, una ventaja.

Preguntas frecuentes

P1. ¿Necesito formación especial para usar MCP?

Para usarlo, no. Con Claude Desktop solo añades unas líneas a un archivo de configuración. Si lo construyes, los SDK de Python / TypeScript son extremadamente delgados: puedes «abrir tu lógica de negocio a la IA» en medio día.

P2. ¿Puedo usar MCP con ChatGPT?

Sí. Desde marzo de 2025, la app ChatGPT Desktop soporta MCP oficialmente. Disponible en ChatGPT Plus / Pro / Team / Enterprise. Consulta los documentos oficiales de OpenAI para la configuración.

P3. ¿Qué lenguaje recomiendas para escribir un servidor MCP?

Depende del caso de uso. Para lógica de negocio y procesamiento de datos, Python (el SDK oficial es el más maduro). Para integración web/frontend, TypeScript. Para añadir a backends existentes en Java/Kotlin/Go, el SDK en ese mismo lenguaje. Para tu primero, Python es el más fácil para aprender.

P4. ¿Es lo suficientemente seguro abrir las BD internas a la IA mediante MCP?

Depende del diseño de tus permisos. Si el servidor MCP es de solo lectura y valida estrictamente los argumentos de la consulta, es mucho más seguro que dejar que la IA escriba SQL en bruto. Por el contrario, un «servidor MCP que deja que la IA lance SQL arbitrario» es peligroso. En producción, los registros de auditoría y los límites de tasa también son obligatorios.

P5. ¿MCP y el Function Calling de OpenAI son cosas distintas?

Están en capas diferentes. Function Calling es «el formato para representar llamadas a funciones dentro del modelo de IA», y MCP es «el protocolo de comunicación entre la IA y los servicios externos». MCP cabalga sobre Function Calling. Entender ambos hace que las decisiones de diseño sean mucho más claras.

P6. Como desarrollador individual, ¿merece MCP mi tiempo ahora mismo?

Mucho. Por dos razones. (1) Conectar tu propio entorno de trabajo con MCP hace que la productividad de Claude Code / Cursor sea varias veces mayor (puedes llamar a tus propias herramientas desde la IA). (2) «Sé implementar MCP» es una subida clara de tarifa en encargos empresariales a fecha de 2026. El retorno sobre el coste de aprendizaje es enorme.

P7. ¿Cuál es el primer paso para aprender MCP?

Tres pasos, 30 minutos. (1) Instala Claude Desktop. (2) Añade el servidor MCP filesystem oficial al archivo de configuración (copiar y pegar, listo). (3) Pídele a Claude «lee el README de esta carpeta»: lo lee mediante MCP. En cuanto sientas cómo funciona, la barrera psicológica para construir el tuyo propio cae drásticamente.