Índice
- 1. ChatGPT cuesta 20 USD/mes — la API podría costar 2 USD (o lo contrario)
- 2. Chat web vs API — cinco diferencias concretas
- 3. ¿Qué es un token? — la unidad mínima de precio
- 4. Precios de las principales APIs — Claude vs GPT vs Gemini
- 5. Cómo elegir modelo — mapa de cuatro tipos de uso
- 6. Tres trampas de precio en las que cae todo principiante
- 7. Tu primera llamada a la API — curl y Python en 5 minutos
- Resumen
- Preguntas frecuentes
«Pago 20 USD/mes por ChatGPT — ¿saldría más barato llamar directamente a la API?». Es una pregunta que los principiantes en IA hacen a menudo. Respuesta corta: a veces sí, a veces ocurre lo contrario. La frontera depende de «cuántas veces llamas a la IA al mes» y «cuán largas son tus entradas».
Por ejemplo, diez preguntas cortas al día: la API cuesta 1–2 USD/mes. Pero analizar un documento de 100K tokens al día: la factura de API salta a 50–200 USD/mes. La tarifa plana del chat web es segura; para uso ligero la API es dramáticamente más barata, pero si te equivocas con esta inversión, te llevarás un mal susto al final de mes.
Mi opinión por adelantado: «desarrolladores que incrustan IA en sus propias apps», «personas que quieren dejar la suscripción a ChatGPT/Claude y usar la IA de forma ligera» y «quienes quieren comparar varios modelos» — estos tres perfiles claramente se benefician de la API. Por el contrario, si «quieres conservar las conversaciones en una interfaz web», «usas a menudo generación de imágenes o entrada de voz» o «odias mirar facturas», quedarte con la suscripción del chat web es la respuesta correcta. Este artículo cubre las diferencias fundamentales entre chat web y API, cómo funcionan los tokens y los precios, los precios de mayo de 2026 de las principales APIs, cómo elegir un modelo, las tres trampas que atrapan a todo principiante y tu primera llamada — todo desde una perspectiva de iniciación.
Tarifa plana del chat web vs pago por uso de la API
— Los mismos modelos de IA, estructuras de coste y UX totalmente distintas
Uso ligero (10 llamadas/día) → API a 1–2 USD/mes.
Uso intensivo (entradas de 100K tokens diarias) → API a 50–200 USD/mes; la tarifa plana del chat web puede salir más barata.
1. ChatGPT cuesta 20 USD/mes — la API podría costar 2 USD (o lo contrario)
Cuentas concretas. «Diez preguntas cortas al día». Cada llamada: 200 tokens de entrada + 200 de salida (aproximadamente 130–160 palabras en inglés). Con Claude Sonnet 4.6 (entrada 3 USD / salida 15 USD por 1M de tokens), una llamada cuesta 0,0036 USD, al mes ~1,10 USD. Eso es 1/18 de los 20 USD/mes de ChatGPT Plus.
Ahora lo contrario. «Analizar un documento de 100K tokens al día». Claude Opus 4.7 (entrada 5 USD / salida 25 USD), una llamada con 100K de entrada + 5K de salida = 0,625 USD. Treinta llamadas/mes = 18,75 USD; cien = 62,50 USD. GPT-5.5 de OpenAI duplica el precio de entrada por encima de 272K tokens, así que los trabajos de contexto largo suben todavía más.
Frontera aproximada: «por debajo de 200–300 llamadas/mes, la API es más barata». Los usuarios intensivos (mucho tráfico diario, entradas largas) suelen salir mejor con la tarifa plana del chat web. Esa es la tensión fundamental entre «plana» (chat web) y «pago por uso» (API).
2. Chat web vs API — cinco diferencias concretas
Más allá del precio, el chat web y la API se diferencian fundamentalmente en cómo se usan. Cinco puntos:
| Eje | Chat web (claude.ai / chatgpt.com) | API |
|---|---|---|
| Cómo se invoca | Chat en el navegador | Petición HTTP desde tu código |
| Facturación | Plana ~20 USD/mes | Pago por token consumido |
| UI | Completa (historial, adjuntos, generación de imágenes) | La construyes tú |
| Gestión de sesión | Historial conservado automáticamente | Reenvías el historial pasado en cada petición |
| Funciones | Voz, imágenes, Memory, Canvas, etc. | Texto/instrucciones de texto a imagen, principalmente |
Lo clave: «la API no recuerda el historial de conversación». En el chat web, los turnos anteriores persisten automáticamente; por API, cada petición es independiente. Si quieres el comportamiento de «recordar el turno anterior», debes reenviar tú mismo el historial completo, lo que gasta tokens muy rápido. Esta es la razón nº 1 por la que los usuarios nuevos dicen «la API salió más cara de lo esperado».
Además, la API es fundamentalmente una interfaz de texto. Funciones del chat web como generación de imágenes, entrada de voz, Code Interpreter, Canvas y Memory o no existen en la API o viven detrás de endpoints separados. La gente asume que «el 80 % de las funciones de ChatGPT están en la API» y descubre que está más cerca del 50–60 %.
3. ¿Qué es un token? — la unidad mínima de precio
Para entender el precio de la API, hay que entender los «tokens». El precio de cada proveedor se expresa como «X USD por 1M (un millón) de tokens».
Lo mínimo para leer los precios
Para estimar antes de enviar, usa la librería tiktoken de OpenAI o la API equivalente a countTokens() de Anthropic.
Más detalles en Qué es la ventana de contexto en IA.
4. Precios de las principales APIs — Claude vs GPT vs Gemini
Mayo de 2026, precios de API de los principales modelos (entrada / salida, por 1M de tokens). Los cambios de precio ocurren trimestralmente, así que verifica lo último en la página oficial de precios del proveedor antes de decidir.
| Modelo | Entrada | Salida | Notas |
|---|---|---|---|
| Claude Opus 4.7 | 5 USD | 25 USD | Plano hasta 1M, máxima calidad |
| Claude Sonnet 4.6 | 3 USD | 15 USD | Plano hasta 1M, mejor precio/rendimiento |
| Claude Haiku 4.5 | 1 USD | 5 USD | Ligero, tope de 200K |
| GPT-5.5 | 5 USD | 30 USD | Recargo de 2× en entrada por encima de 272K |
| GPT-5.4 | 2,50 USD | 15 USD | Mismo recargo de contexto largo |
| Gemini 3.1 Pro | 2 USD | 12 USD | Contexto de 2M; la Batch API lo reduce a la mitad |
| Gemini 2.5 Flash-Lite | 0,10 USD | 0,40 USD | El nivel más bajo para gran volumen |
| DeepSeek V4-Pro | 0,55 USD | 2,20 USD | Open-weight, máximo coste/rendimiento |
La tabla por sí sola ya muestra: la salida cuesta 5–10× más que la entrada. Cada llamada genera ambas, así que los usos pesados en salida (resúmenes, generación de artículos, generación de código) cuestan más. Las tareas ligeras en salida (clasificación, respuestas cortas) salen muy baratas en la API.
Igual de importante: los «mecanismos de descuento»:
- Prompt caching (Anthropic / OpenAI): reutiliza el mismo system prompt y el precio de entrada baja hasta un 90 % a partir de la segunda llamada
- Batch API (OpenAI / Google): lotes asíncronos procesados en 24 horas, 50 % de descuento
- Coste de escritura en caché: Anthropic cobra 1,25× por las escrituras en caché; las lecturas son 0,1×
Sáltate esto y pagarás precio completo cuando podrías haber pagado entre 1/3 y 1/5. Consulta Ahorro de coste de tokens y sesiones de IA para más detalles.
5. Cómo elegir modelo — mapa de cuatro tipos de uso
«¿Qué modelo elijo?» es la mayor pregunta del principiante. A mayo de 2026, dividir en cuatro tipos simplifica la decisión.
Mapa de selección por propósito
Mi mejor práctica personal: emparejar ② (caballo de batalla) + ③ (masivo).
Escala a ① para tareas complejas, enruta datos confidenciales por ④. Solo esto reduce a la mitad el coste mensual en la práctica.
6. Tres trampas de precio en las que cae todo principiante
En los 3 primeros meses con APIs, casi todo el mundo cae en una de tres trampas de precio. Aquí están.
Trampa ①: reenviar todo el historial de conversación cada vez
La API no recuerda. Para crear un comportamiento «como un chat», debes reenviar la conversación completa en cada llamada. Deja esto sin gestionar y para el turno 10 estarás enviando más de 10 000 tokens de entrada por llamada. Solución: resumir la conversación antigua antes de reenviar, o tratar los cambios de tema como sesiones nuevas.
Trampa ②: inflar el system prompt
«Eres un experto en X». «Sigue estas 20 reglas». «El formato de salida debe ser…» — un preámbulo largo es un clásico de principiantes. Un system prompt de 2000 tokens llamado 100 veces al día cuesta 30 USD/mes solo por eso. Activa el prompt caching y las llamadas a partir de la segunda caen un 90 %. En código, a menudo basta con añadir cache_control: { type: "ephemeral" } en un bloque.
Trampa ③: olvidar fijar límites de gasto / tasa
El resultado más aterrador para un principiante: «un bug deja el código en un bucle infinito y la factura de fin de mes es de 500 USD». Prevenlo fijando un límite de gasto por clave (hard cap). Tanto Anthropic Console como OpenAI Platform te permiten poner un tope mensual; configúralo al crear la clave. Para principiantes, 20–50 USD es un tope seguro.
7. Tu primera llamada a la API — curl y Python en 5 minutos
Dejando la teoría a un lado, aquí va el código mínimo para enviar «Hola» a la API de Claude de Anthropic.
Configuración (3 pasos)
- Crea una cuenta en Anthropic Console (o platform.openai.com para OpenAI)
- Emite una clave de API (menú izquierdo «API Keys» → «Create Key»). Se muestra solo una vez — guárdala ahora
- En Settings, fija un Spending Limit de unos 20 USD (obligatorio para principiantes)
Llamada mínima con curl
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-sonnet-4-6",
"max_tokens": 100,
"messages": [
{"role": "user", "content": "Hola desde el mundo de la API de IA"}
]
}'
Recibes JSON de vuelta. La respuesta de la IA está en content[0].text; los tokens consumidos están en usage.input_tokens y usage.output_tokens. «¿Cuántos tokens consumió esto realmente?» — esa respuesta te lo dice, cada vez.
Python (recomendado)
pip install anthropic
import os
from anthropic import Anthropic
client = Anthropic(api_key=os.environ["ANTHROPIC_API_KEY"])
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=100,
messages=[
{"role": "user", "content": "Hola desde el mundo de la API de IA"}
]
)
print(response.content[0].text)
print(f"Usado: entrada {response.usage.input_tokens} / salida {response.usage.output_tokens}")
Una vez que este código mínimo funcione, ya tienes hecha la mitad del camino. El resto es gestión del historial de conversación, uso de herramientas (function calling) y streaming — aprende eso por orden y podrás construir la mayoría de aplicaciones de IA. Ver también ¿Pueden los principiantes crear apps con IA?.
Resumen
Recapitulación:
- El chat web es tarifa plana, la API es pago por uso. Uso ligero (~10/día) se queda en 1–2 USD/mes en la API; uso intensivo puede llegar a 50–200 USD/mes
- Cinco diferencias: invocación / facturación / UI / sesión / funciones. La API no recuerda el historial, así que lo reenvías tú
- Los tokens son la unidad de precio. ~0,75 palabras en inglés por token; la salida cuesta 5–10× la entrada
- Precios de mayo de 2026: Sonnet 3/15 USD, Opus 5/25 USD, GPT-5.5 5/30 USD, Gemini 3.1 Pro 2/12 USD (por 1M de tokens)
- Usa un mapa de modelos de 4 tipos (premium / caballo de batalla / ligero / abierto). Emparejar ② caballo de batalla + ③ ligero es la respuesta práctica
- Tres trampas de precio: acumulación de historial / system prompts sobredimensionados / falta de límites de gasto. Fijar límites el primer día previene la mayoría
- Primera llamada: 5 minutos con curl o Python. No subas claves a GitHub y fija primero un límite de gasto — eso es todo
Las suscripciones de chat web son cómodas, pero en el momento en que piensas «quiero incrustar IA en mi propia herramienta, automatización o flujo de trabajo», la API se vuelve una opción real. Al principio impone, pero fija un límite de gasto bajo, ejecútalo una o dos veces y siente cómo cada llamada cuesta unos 0,01 USD. Cuando la factura de fin de mes llegue por 1,50 USD, habrás cruzado en silencio la línea en la que la IA pasa de ser algo que «usas» a algo con lo que «construyes».
Preguntas frecuentes
Depende del uso. Si llamas a la IA ~200 veces al mes y rara vez usas generación de imágenes o funciones de voz, la API es más barata (2–5 USD/mes). Si la usas más de 10 veces al día o te apoyas en generación de imágenes / Memory, mantén Plus por la comodidad. Ejecuta ambos en paralelo durante un mes y compara facturas — esa es la respuesta más segura.
OpenAI no tiene programa de crédito gratuito; Anthropic a veces ofrece unos 5 USD de crédito de prueba al registrarse. Google AI Studio (Gemini) tiene un Free Tier real donde puedes probar Gemini 2.5 Flash y modelos similares gratis dentro de ciertos límites. «Solo quiero tocar la API gratis» → empieza por Gemini AI Studio.
Se necesita cierta capacidad básica de copiar y ejecutar código. Pero como funciona con una línea de curl o cinco líneas de Python, el listón está bajo para «copiar y ejecutar». En 2026, pedirle al propio Claude / ChatGPT «escríbeme la primera llamada a la API de Anthropic en Python, con comentarios» casi siempre devuelve código que funciona.
Aproximadamente la misma velocidad que el chat web para el mismo modelo. Con streaming activado, la respuesta se siente como el efecto máquina de escribir que ves en el chat web. A gran escala puedes chocar con rate limits, pero estos van subiendo de nivel según el historial de uso (tanto OpenAI como Anthropic tienen programas de Tier).
Claude Sonnet 4.6 o Gemini 3.1 Pro. El primero ofrece inglés natural más tarifa plana hasta 1M; el segundo tiene free tier y 50 % de descuento vía Batch API. Opus / GPT-5.5 son de máxima calidad pero más caros; los modelos ligeros (Haiku / Flash-Lite) pueden ser confusamente escuetos para quien aprende por primera vez. Fija un modelo principal y añade otros según surjan necesidades — ese es el manual estándar.