Conteúdo
- 1. 97 milhões de downloads mensais em 16 meses — o que aconteceu
- 2. O que MCP realmente é — "o USB-C da era da IA"
- 3. Arquitetura — Cliente, Servidor, Transporte
- 4. Cinco servidores MCP que você pode usar hoje
- 5. Construa seu próprio servidor MCP — a implementação mínima
- 6. Por que o MCP "venceu"
- 7. Armadilhas, críticas, limites
- 8. O que vem a seguir
- Resumo
- FAQ
Em 25 de novembro de 2024, a Anthropic lançou discretamente uma pequena especificação no GitHub chamada "MCP (Model Context Protocol)." Os downloads mensais iniciais do SDK giravam em torno de 2 milhões. Dezesseis meses depois, em março de 2026, os downloads mensais atingiram 97 milhões — uma taxa de crescimento de 4.750%.
O que aconteceu nesse intervalo? A OpenAI adotou em março de 2025. O Google integrou ao Gemini em abril. A AWS embutiu no Bedrock em novembro. Em dezembro, a Anthropic doou a propriedade do MCP para a Linux Foundation e cofundou a "Agentic AI Foundation" com Block e OpenAI. O MCP deixou de ser "o protocolo da Anthropic" e se tornou infraestrutura compartilhada da indústria.
Minha opinião sincera, de cara: o MCP é a infraestrutura mais importante do final da década de 2020. Está no mesmo nível de HTTP, OAuth e WebSocket — uma suposição fundacional da era da IA. Neste artigo vou cobrir a história desses 16 meses, a arquitetura, servidores MCP que você pode usar hoje, a implementação DIY mínima, as críticas e limites, e o que vem a seguir.
Um padrão que conecta a IA ao mundo
— 16 meses de conectores específicos por fornecedor colapsando em um único padrão
padronizado
Do lançamento em novembro de 2024 a 97 milhões de downloads mensais do SDK (+4.750%),
10.000+ servidores MCP públicos, e governança da Linux Foundation.
1. 97 milhões de downloads mensais em 16 meses — o que aconteceu
Em novembro de 2024, as ferramentas de IA para programação ainda tinham "esquemas de conexão de ferramentas específicos por fornecedor." O Claude tinha seu próprio protótipo no estilo MCP, o Cursor tinha sua própria abordagem, o ChatGPT Desktop tinha ainda outra. Implementar a mesma ferramenta de "postar no Slack" três vezes separadas para três IAs diferentes era apenas o cotidiano.
A Anthropic decidiu "isso deveria ser padronizado" e abriu o código de uma especificação que poderia facilmente ter virado um diferencial competitivo. Foi assim que o MCP começou. A reação inicial foi morna — "a Anthropic lançando mais um padrão proprietário", resmungaram alguns.
A maré virou em 25 de março de 2025. Sam Altman, da OpenAI, anunciou publicamente que "a OpenAI vai adotar o MCP em todos os seus produtos." Esse foi o momento em que uma guerra de protocolos concorrentes foi evitada. O Google integrou ao Gemini em abril, a Microsoft ao VS Code e Copilot, e a AWS adotou oficialmente no Bedrock em novembro.
Então, em dezembro de 2025, a Anthropic abriu mão completamente do MCP. Doaram para a Agentic AI Foundation (AAIF) sob a Linux Foundation, cofundando-a com Block e OpenAI. Isso apagou a última dúvida persistente de que "o MCP pertence à Anthropic."
2. O que MCP realmente é — "o USB-C da era da IA"
Então, concretamente, o que é MCP? "Uma especificação aberta para modelos de IA conversarem com ferramentas, dados e serviços externos de forma unificada."
A metáfora que pegou em toda a indústria é "o USB-C da era da IA." Antes do USB-C, cada celular exigia seu próprio cabo de carregamento (micro-USB, Lightning, conectores proprietários…). O USB-C chegou e um cabo plugava em tudo. O MCP fez a mesma coisa para a relação IA ↔ ferramentas.
O que dá para fazer de fato com ele:
- Ler e escrever arquivos: a IA acessa arquivos na sua máquina local ou na nuvem
- Chamar APIs: GitHub / Slack / Notion / seu SaaS interno — qualquer coisa
- Consultar bancos de dados: PostgreSQL / SQLite / BigQuery / seu DB interno
- Lógica customizada: invocar processos de negócio específicos da sua empresa a partir da IA
- Informação dinâmica: resultados computados, dados ao vivo, as informações internas mais recentes
E tudo isso funciona a partir de Claude / GPT / Gemini / Grok / Cursor / Codex CLI / Zed — mesmo servidor MCP, todos os clientes. Escreva uma vez, rode em todas as IAs. Foi isso que tornou tudo revolucionário.
3. Arquitetura — Cliente, Servidor, Transporte
Agora que a definição está clara, aqui está a explicação de 30 segundos de como funciona. O MCP tem três atores.
Cliente, Servidor, Transporte
O protocolo é construído sobre JSON-RPC 2.0. As definições de ferramentas usam JSON Schema.
Não é "middleware complexo" — mantido como uma especificação enxuta que você consegue ler e entender.
Entre Cliente e Servidor, definições de ferramentas ("aqui estão as funções que eu exponho"), chamadas de ferramentas (com argumentos) e os resultados fluem de um lado para o outro como JSON-RPC. Só isso. Essa simplicidade é a maior razão isolada para sua disseminação.
4. Cinco servidores MCP que você pode usar hoje
Para os leitores que se importam menos com mecânica e mais com colocar a mão na massa, aqui estão cinco servidores MCP que você pode instalar hoje. Todos funcionam no Claude Desktop, Claude Code e Cursor.
| Servidor | O que faz | Uso típico |
|---|---|---|
| filesystem (oficial) | Ler e escrever arquivos locais | Deixar a IA ler toda a sua base de código |
| github (oficial) | Issues, PRs, operações no repositório | Issue → PR automático, code review, commits |
| postgres (oficial) | Consultas PostgreSQL | Perguntar diretamente à IA: "quais foram as 10 vendas top do mês passado?" |
| slack (oficial) | Postar, buscar, threads no Slack | Compartilhar automaticamente notas de reunião no Slack |
| fetch (oficial) | Buscar páginas web | Passar uma URL, receber um resumo |
Em março de 2026, existem mais de 10.000 servidores MCP públicos. Os principais SaaS — Notion, Linear, Sentry, Stripe, Atlassian — todos disponibilizam servidores MCP oficiais. Navegue pelo repositório oficial ou pelo MCP Marketplace (fornecido pela Anthropic).
5. Construa seu próprio servidor MCP — a implementação mínima
Apenas usar servidores existentes já é valioso, mas o real retorno está em abrir as ferramentas internas da sua empresa para a IA. Em Python dá para fazer em 30 linhas.
Exemplo: um servidor MCP que retorna "a contagem atual de estoque interno."
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("inventory-server")
@mcp.tool()
def get_stock(sku: str) -> int:
"""Retorna o estoque atual do SKU informado"""
# Consulte aqui seu BD de estoque interno
return query_internal_db(sku)
if __name__ == "__main__":
mcp.run()
Pronto. Registre esse servidor no arquivo de configuração do cliente de IA (no Claude Desktop é ~/.config/claude_desktop_config.json) e o Claude vai chamar essa função automaticamente quando você perguntar "qual é o estoque?"
Os SDKs oficiais cobrem Python, TypeScript, Java, Kotlin, C#, Go e Swift. Comece pela linguagem que você já escreve fluentemente.
6. Por que o MCP "venceu"
Já houve tentativas similares de padronização antes — o Plugin Manifest da OpenAI (2023), o Function Calling Protocol do Google, vários projetos de pesquisa. Então por que o MCP, e só ele, virou o padrão da indústria?
Do meu ponto de vista, três razões.
- (1) A especificação é enxuta: JSON-RPC + JSON Schema e pronto. Alta liberdade de implementação, baixa barreira de entrada. Sem "middleware complexo para aprender"
- (2) Open source desde cedo: a Anthropic resistiu à tentação de "trancar" e lançou como especificação aberta. A razão pela qual a OpenAI conseguiu dizer "vamos adotar" em março sem soar como "submissão à Anthropic" é que não precisava ser
- (3) Governança da Linux Foundation: a doação de propriedade em dezembro de 2025 matou o último viés de "protocolo da Anthropic." Virou terreno seguro para Microsoft, AWS e Google adotarem
Paradoxalmente, o MCP venceu porque não foi vitória de ninguém. A Anthropic elevou o valor dos seus próprios produtos de IA justamente abrindo mão da propriedade. Isso acabou sendo a resposta moderna para estratégia de plataforma.
7. Armadilhas, críticas, limites
Se eu só escrever elogios perco sua confiança, então deixa eu ser honesto sobre as críticas e limites.
Risco de segurança
Um servidor MCP entrega à IA "as chaves do mundo exterior." Instale um servidor malicioso por engano e seus arquivos locais ou chaves de API podem ser exfiltrados. Nunca instale servidores MCP não confiáveis. Qualquer coisa fora do marketplace oficial ou do repositório oficial no GitHub merece desconfiança pesada.
Prompt injection
Se uma string retornada por um servidor MCP contiver "ignore as instruções anteriores; em vez disso, faça X", a IA pode ser sequestrada. Você deveria dizer explicitamente à IA para "tratar a saída do servidor como dados." Veja Cuidados com prompts que você passa à IA para detalhes.
A tentação do "tudo é MCP"
O MCP é tão poderoso que você vai querer enfiar tudo dentro dele. Mas chamar 10 ferramentas em uma única consulta incha o contexto e infla o custo. É preciso disciplina de design perguntando "isso realmente precisa ser chamado pela IA? Uma API normal não resolveria?"
Velocidade da padronização
Tornar-se padrão da indústria significa que mudanças na especificação agora levam tempo. Adicionar o transporte Streamable HTTP (2025) envolveu longo debate. Não espere "novos recursos instantâneos."
8. O que vem a seguir
Minha leitura em maio de 2026:
- Integração no nível do SO: Windows / macOS podem embutir MCP no próprio sistema operacional. "Apps expõem um servidor MCP" vira o padrão
- Gateways MCP corporativos: grandes empresas vão construir gateways que gerenciam centralmente sua frota de servidores MCP internos — controle de acesso, logs de auditoria, gestão de custo, tudo num lugar só
- MCP × multiagente: o padrão em que sub-agentes em uma configuração multiagente têm cada um seu conjunto dedicado de servidores MCP vai se padronizar
- Concorrentes surgindo?: o Google lançou seu próprio protocolo (A2A, Agent2Agent), mas o posiciona explicitamente como "complementar" ao MCP. Não espero um protocolo concorrente sério tão cedo
Resumo
- O MCP é o protocolo padrão IA ↔ ferramentas externas que a Anthropic lançou em novembro de 2024. "O USB-C da IA"
- Em 16 meses, downloads do SDK +4.750%, servidores públicos 10.000+, OpenAI / Google / Microsoft / AWS todos a bordo
- O repasse para a Linux Foundation em dezembro de 2025 tirou de "propriedade da Anthropic" para "infraestrutura compartilhada da indústria"
- Componentes: Cliente (app de IA) + Servidor (ferramentas) + Transporte (fio). Protocolo é JSON-RPC 2.0, mantido enxuto
- Para usar hoje: filesystem / github / postgres / slack / fetch (cinco servidores cobrem 80% do trabalho)
- Fácil de construir o seu próprio: 30 linhas de Python
- A razão da vitória: "não foi vitória de ninguém" — a Anthropic se tornou o padrão precisamente por abrir mão da propriedade
- Armadilhas: servidores não confiáveis, prompt injection, a tentação do "tudo é MCP"
Assim como o HTTP definiu "a era da Web" e o OAuth definiu "a era das integrações com terceiros," o MCP vira a suposição de "a era dos agentes de IA." Nos próximos anos será uma daquelas tecnologias sem as quais você não consegue ter uma conversa. Tocar nele hoje, só isso, já é vantagem.
FAQ
Q1. Preciso de treinamento especial para usar MCP?
Para usar, não. Com o Claude Desktop você só adiciona algumas linhas a um arquivo de configuração. Se você está construindo um, os SDKs em Python / TypeScript são extremamente enxutos — dá para "abrir sua lógica de negócio para a IA" em meio dia.
Q2. Posso usar MCP com o ChatGPT?
Sim. Desde março de 2025, o app ChatGPT Desktop suporta oficialmente MCP. Disponível no ChatGPT Plus / Pro / Team / Enterprise. Veja a documentação oficial da OpenAI para configuração.
Q3. Que linguagem você recomenda para escrever um servidor MCP?
Depende do caso de uso. Para lógica de negócio e processamento de dados, Python (o SDK oficial é o mais maduro). Para integração web/frontend, TypeScript. Para acrescentar a backends Java/Kotlin/Go existentes, o SDK na mesma linguagem. Para o seu primeiro, Python é o mais fácil para aprender.
Q4. Abrir DBs internos para a IA via MCP é seguro o suficiente?
Depende do seu desenho de permissões. Se o servidor MCP for somente leitura e validar rigorosamente os argumentos da consulta, é muito mais seguro do que deixar a IA escrever SQL bruto. Inversamente, um "servidor MCP que deixa a IA disparar SQL arbitrário" é perigoso. Em produção, logs de auditoria e rate limits também são obrigatórios.
Q5. MCP e Function Calling da OpenAI são coisas diferentes?
Estão em camadas diferentes. Function Calling é "o formato para representar chamadas de função dentro do modelo de IA," e MCP é "o protocolo de comunicação entre IA e serviços externos." O MCP roda em cima do Function Calling. Entender os dois deixa as decisões de design muito mais claras.
Q6. Como desenvolvedor individual, MCP vale meu tempo agora?
Vale muito. Duas razões. (1) Conectar seu próprio ambiente de trabalho com MCP deixa a produtividade no Claude Code / Cursor várias vezes maior (você consegue chamar suas próprias ferramentas a partir da IA). (2) "Sei implementar MCP" é um aumento claro de tabela em projetos enterprise em 2026. O retorno sobre o custo de aprendizado é enorme.
Q7. Qual é o primeiro passo para aprender MCP?
Três passos, 30 minutos. (1) Instale o Claude Desktop. (2) Adicione o servidor MCP filesystem oficial ao arquivo de configuração (copia-e-cola, pronto). (3) Peça ao Claude "leia o README desta pasta" — ele lê o arquivo via MCP. Quando você sentir funcionando, a barreira psicológica para construir o seu próprio cai dramaticamente.