Sommaire
- 1. ChatGPT coûte 20 $/mois — l'API pourrait coûter 2 $ (ou l'inverse)
- 2. Chat web vs API — cinq différences concrètes
- 3. Qu'est-ce qu'un token ? — La plus petite unité de tarification
- 4. Tarifs des principales API — Claude vs GPT vs Gemini
- 5. Choisir un modèle — carte des quatre types d'usage
- 6. Trois pièges tarifaires dans lesquels tombent tous les débutants
- 7. Votre premier appel API — curl et Python en 5 minutes
- Résumé
- FAQ
« Je paie 20 $/mois pour ChatGPT — appeler directement l'API serait-il moins cher ? » C'est une question que les débutants en IA posent souvent. Réponse courte : parfois oui, parfois l'inverse. La frontière dépend du « nombre d'appels à l'IA par mois » et de « la longueur de vos entrées ».
Par exemple, dix questions courtes par jour ? L'API vous coûtera 1 à 2 $/mois. Mais analyser un document de 100 000 tokens quotidiennement ? La facture API grimpe à 50 à 200 $/mois. Le forfait du chat web est sûr ; pour un usage léger, l'API est nettement moins chère — mais ratez cette inversion, et vous aurez une mauvaise surprise sur la facture de fin de mois.
Mon avis d'emblée : « les développeurs qui intègrent l'IA dans leurs propres applications », « les particuliers qui veulent abandonner l'abonnement ChatGPT/Claude et utiliser l'IA légèrement », et « les personnes qui veulent comparer plusieurs modèles » — ces trois profils bénéficient clairement de l'API. À l'inverse, si vous « voulez garder vos conversations dans une interface web », « utilisez souvent la génération d'images ou l'entrée vocale », ou « détestez regarder les factures », rester sur l'abonnement chat web est la bonne réponse. Cet article couvre les différences fondamentales entre chat web et API, le fonctionnement des tokens et de la tarification, les prix de mai 2026 pour les principales API, comment choisir un modèle, les trois pièges qui attrapent tous les débutants, et votre premier appel — le tout du point de vue d'un débutant.
Forfait du chat web vs paiement à l'usage de l'API
— Mêmes modèles d'IA, structures de coût et UX complètement différentes
Usage léger (10 appels/jour) → API à 1–2 $/mois.
Usage intensif (entrées de 100 000 tokens quotidiennes) → API à 50–200 $/mois ; le forfait du chat web peut être moins cher.
1. ChatGPT coûte 20 $/mois — l'API pourrait coûter 2 $ (ou l'inverse)
Calcul concret. « Dix questions courtes par jour. » Chaque appel : 200 tokens en entrée + 200 tokens en sortie (environ 130–160 mots en anglais). Avec Claude Sonnet 4.6 (entrée 3 $ / sortie 15 $ par million de tokens), un appel coûte 0,0036 $, soit mensuellement ~1,10 $. C'est 1/18 des 20 $/mois de ChatGPT Plus.
Maintenant l'inverse. « Analyser un document de 100 000 tokens quotidiennement. » Claude Opus 4.7 (entrée 5 $ / sortie 25 $), un appel avec 100 000 tokens en entrée + 5 000 en sortie = 0,625 $. Trente appels/mois = 18,75 $ ; cent = 62,50 $. GPT-5.5 d'OpenAI double le prix d'entrée au-dessus de 272 000 tokens, donc les tâches à long contexte explosent encore plus.
Frontière approximative : « en dessous de 200–300 appels/mois, l'API est moins chère ». Les gros utilisateurs (beaucoup de trafic quotidien, entrées longues) sont souvent mieux avec le forfait du chat web. C'est la tension fondamentale entre « forfait » (chat web) et « paiement à l'usage » (API).
2. Chat web vs API — cinq différences concrètes
Au-delà du prix, le chat web et l'API diffèrent fondamentalement dans la façon dont on les utilise. Cinq points :
| Axe | Chat web (claude.ai / chatgpt.com) | API |
|---|---|---|
| Comment l'appeler | Chat dans un navigateur | Requête HTTP depuis votre code |
| Facturation | Forfait ~20 $/mois | Paiement par token consommé |
| UI | Complète (historique, pièces jointes, génération d'images) | Vous construisez la vôtre |
| Gestion de session | Historique préservé automatiquement | Vous renvoyez l'historique à chaque requête |
| Fonctionnalités | Voix, images, Memory, Canvas, etc. | Instructions texte/image principalement |
Le point clé : « l'API ne se souvient pas de l'historique de conversation ». Dans le chat web, les échanges passés persistent automatiquement ; via l'API, chaque requête est indépendante. Si vous voulez un comportement « se souvenir du tour précédent », vous devez renvoyer vous-même l'historique complet, ce qui consomme des tokens rapidement. C'est la raison n°1 pour laquelle les nouveaux utilisateurs disent « l'API a coûté plus cher que prévu ».
Aussi, l'API est fondamentalement une interface texte. Les fonctionnalités du chat web comme la génération d'images, l'entrée vocale, Code Interpreter, Canvas et Memory n'existent pas via l'API ou vivent derrière des endpoints séparés. Les gens supposent que « 80 % des fonctionnalités de ChatGPT sont dans l'API » mais réalisent que c'est plutôt 50–60 %.
3. Qu'est-ce qu'un token ? — La plus petite unité de tarification
Pour comprendre la tarification des API, vous devez comprendre « les tokens ». La tarification de chaque fournisseur est écrite comme « X $ par 1M (un million) de tokens ».
Le minimum pour lire les prix
Pour estimer avant d'envoyer, utilisez la bibliothèque tiktoken d'OpenAI ou l'API équivalente countTokens() d'Anthropic.
Pour plus d'informations, voir Qu'est-ce que la fenêtre de contexte de l'IA.
4. Tarifs des principales API — Claude vs GPT vs Gemini
Mai 2026 tarifs API des principaux modèles (entrée / sortie, par 1M de tokens). Les changements de prix arrivent trimestriellement, donc vérifiez les derniers tarifs sur la page officielle du fournisseur avant de décider.
| Modèle | Entrée | Sortie | Notes |
|---|---|---|---|
| Claude Opus 4.7 | 5 $ | 25 $ | Forfait 1M, qualité supérieure |
| Claude Sonnet 4.6 | 3 $ | 15 $ | Forfait 1M, meilleur rapport qualité/prix |
| Claude Haiku 4.5 | 1 $ | 5 $ | Léger, plafond 200K |
| GPT-5.5 | 5 $ | 30 $ | Surcoût d'entrée 2x au-dessus de 272K |
| GPT-5.4 | 2,50 $ | 15 $ | Même surcoût pour long contexte |
| Gemini 3.1 Pro | 2 $ | 12 $ | Contexte 2M, l'API Batch le réduit de moitié |
| Gemini 2.5 Flash-Lite | 0,10 $ | 0,40 $ | Niveau le plus bas pour gros volume |
| DeepSeek V4-Pro | 0,55 $ | 2,20 $ | Open-weight, meilleur rapport coût/perf |
Le tableau seul montre déjà : la sortie coûte 5 à 10 fois plus que l'entrée. Chaque appel génère les deux, donc les usages riches en sortie (résumé, génération d'articles, génération de code) coûtent plus cher. Les tâches pauvres en sortie (classification, réponses courtes) tournent très bon marché sur l'API.
Tout aussi important : les « mécaniques de réduction » :
- Prompt caching (Anthropic / OpenAI) : réutilisez le même prompt système et le prix d'entrée baisse jusqu'à 90 % à partir du second appel
- API Batch (OpenAI / Google) : lots asynchrones traités en 24 heures, 50 % de réduction
- Coût d'écriture du cache : Anthropic facture 1,25x pour les écritures de cache ; les lectures sont à 0,1x
Ignorez-les et vous paierez plein tarif alors que vous auriez pu payer 1/3 à 1/5. Voir Économies de coûts sur les tokens et sessions IA pour plus.
5. Choisir un modèle — carte des quatre types d'usage
« Quel modèle dois-je choisir ? » est la plus grande question de débutant. À partir de mai 2026, diviser en quatre types simplifie la décision.
Carte de sélection par objectif
Ma meilleure pratique personnelle : associer ② (cheval de trait) + ③ (en masse).
Escaladez vers ① pour les tâches complexes, routez les données confidentielles via ④. Cela seul divise le coût mensuel par deux en pratique.
6. Trois pièges tarifaires dans lesquels tombent tous les débutants
Dans les 3 mois suivant le début avec les API, presque tout le monde tombe dans l'un de ces trois pièges tarifaires. Les voici.
Piège ① : Renvoyer tout l'historique de conversation à chaque fois
L'API ne se souvient pas. Pour créer un comportement « ressemblant à un chat », vous devez renvoyer toute la conversation à chaque appel. Laissez cela non géré et au 10e tour vous envoyez 10 000+ tokens d'entrée par appel. Solution : résumer l'ancienne conversation avant de la renvoyer, ou traiter les changements de sujet comme de nouvelles sessions.
Piège ② : Gonfler le prompt système
« Tu es un expert en X. » « Suis ces 20 règles. » « Le format de sortie doit être… » — un long préambule est un classique du débutant. Un prompt système de 2 000 tokens appelé 100 fois par jour coûte 30 $/mois rien qu'à cela. Activez le prompt caching et les appels à partir du second baissent de 90 %. Dans le code, c'est souvent juste ajouter cache_control: { type: "ephemeral" } sur un bloc.
Piège ③ : Oublier de définir des limites de taux / dépenses
Le résultat débutant le plus effrayant : « un bug met le code dans une boucle infinie et la facture de fin de mois est de 500 $ ». Évitez-le en définissant une limite de dépenses par clé (plafond strict). La Console Anthropic comme la Plateforme OpenAI vous permettent de plafonner les dépenses mensuelles ; réglez ceci lors de la création de la clé. Pour les débutants, 20–50 $ est un plafond sûr.
7. Votre premier appel API — curl et Python en 5 minutes
Théorie de côté, voici le code minimal pour envoyer « Hello » à l'API Claude d'Anthropic.
Configuration (3 étapes)
- Créez un compte sur la Console Anthropic (ou platform.openai.com pour OpenAI)
- Émettez une clé API (menu de gauche « API Keys » → « Create Key »). Affichée une seule fois — sauvegardez-la maintenant
- Dans les Paramètres, définissez une Spending Limit d'environ 20 $ (obligatoire pour les débutants)
Appel curl minimal
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-sonnet-4-6",
"max_tokens": 100,
"messages": [
{"role": "user", "content": "Bonjour depuis le monde de l'API IA"}
]
}'
Vous récupérez du JSON. La réponse de l'IA est dans content[0].text ; les tokens consommés sont dans usage.input_tokens et usage.output_tokens. « Combien de tokens cela a-t-il vraiment consommé ? » — cette réponse vous le dit, à chaque fois.
Python (recommandé)
pip install anthropic
import os
from anthropic import Anthropic
client = Anthropic(api_key=os.environ["ANTHROPIC_API_KEY"])
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=100,
messages=[
{"role": "user", "content": "Bonjour depuis le monde de l'API IA"}
]
)
print(response.content[0].text)
print(f"Utilisé : entrée {response.usage.input_tokens} / sortie {response.usage.output_tokens}")
Une fois ce code minimal fonctionnel, vous êtes déjà à mi-chemin. Le reste, c'est la gestion de l'historique de conversation, l'utilisation d'outils (function calling) et le streaming — apprenez-les dans cet ordre et vous pouvez construire la plupart des applications IA. Voir aussi Les débutants peuvent-ils créer des applications avec l'IA ?.
Résumé
Récapitulatif :
- Le chat web est à forfait, l'API au paiement à l'usage. Usage léger (~10/jour) se situe à 1–2 $/mois sur l'API ; usage intensif peut atteindre 50–200 $/mois
- Cinq différences : invocation / facturation / UI / session / fonctionnalités. L'API ne se souvient pas de l'historique, vous le renvoyez vous-même
- Les tokens sont l'unité de tarification. ~0,75 mot anglais par token ; la sortie coûte 5 à 10 fois l'entrée
- Prix de mai 2026 : Sonnet 3 $/15 $, Opus 5 $/25 $, GPT-5.5 5 $/30 $, Gemini 3.1 Pro 2 $/12 $ (par 1M de tokens)
- Utilisez une carte de 4 types de modèles (premium / cheval de trait / léger / open). Associer ② cheval de trait + ③ léger est la réponse pratique
- Trois pièges tarifaires : accumulation d'historique / prompts système surdimensionnés / limites de dépenses manquantes. Définir des limites le premier jour évite la plupart d'entre eux
- Premier appel : 5 minutes avec curl ou Python. Ne commitez pas les clés sur GitHub et fixez d'abord une limite de dépenses — c'est tout
Les abonnements chat web sont pratiques, mais dès que vous pensez « je veux intégrer l'IA dans mon propre outil, automatisation ou flux de travail », l'API devient une vraie option. C'est intimidant au début, mais fixez une limite de dépenses basse, lancez-le une ou deux fois, et ressentez que chaque appel coûte environ 0,01 $. Quand la facture de fin de mois arrive à 1,50 $, vous franchirez silencieusement la ligne où l'IA passe de quelque chose que vous « utilisez » à quelque chose avec lequel vous « construisez ».
FAQ
Cela dépend de l'usage. Si vous appelez l'IA ~200 fois par mois et utilisez rarement la génération d'images ou les fonctionnalités vocales, l'API est moins chère (2–5 $/mois). Si vous l'utilisez 10+ fois quotidiennement ou vous reposez sur la génération d'images / Memory, gardez Plus pour la commodité. Faites tourner les deux pendant un mois en parallèle et comparez les factures — c'est la réponse la plus sûre.
OpenAI n'a pas de programme de crédit gratuit ; Anthropic offre parfois ~5 $ de crédit d'essai à l'inscription. Google AI Studio (Gemini) a un vrai Free Tier où vous pouvez essayer Gemini 2.5 Flash et des modèles similaires gratuitement dans les limites. « Juste envie de toucher l'API gratuitement » → commencez par Gemini AI Studio.
Une capacité de base à copier et exécuter du code est nécessaire. Mais comme cela fonctionne en une ligne de curl ou cinq lignes de Python, la barre est basse pour « copier et exécuter ». En 2026, demander à Claude / ChatGPT lui-même « écris-moi le premier appel API Anthropic en Python, avec commentaires » renvoie presque toujours du code fonctionnel.
À peu près la même vitesse que le chat web pour le même modèle. Avec le streaming activé, la réponse a l'effet machine à écrire que vous voyez dans le chat web. À grande échelle, vous pouvez atteindre des limites de débit, mais celles-ci montent en palier selon l'historique d'usage (OpenAI et Anthropic ont des programmes Tier).
Claude Sonnet 4.6 ou Gemini 3.1 Pro. Le premier offre un anglais naturel plus un tarif forfaitaire 1M ; le second a un niveau gratuit et 50 % de réduction via l'API Batch. Opus / GPT-5.5 sont de qualité supérieure mais plus chers ; les modèles légers (Haiku / Flash-Lite) peuvent être trop laconiques pour les débutants. Fixez un modèle principal, ajoutez les autres au fur et à mesure des besoins — c'est le manuel standard.