Quand ChatGPT plante, la première erreur est de paniquer et de tout essayer en même temps. Dans la majorité des cas, le problème vient d’un cache navigateur, d’une extension qui bloque les requêtes, ou d’une saturation côté OpenAI — et la résolution prend quelques minutes si on procède dans le bon ordre.
Voici la marche à suivre : une méthode de diagnostic systématique pour ne plus perdre de temps quand ChatGPT ne répond plus.
Avant tout : est-ce un problème chez toi ou chez OpenAI ?
Premier réflexe à avoir. Ouvre status.openai.com dans un autre onglet. Cette page affiche l’état en temps réel de tous les services OpenAI : ChatGPT, l’API, Sora, Codex. Si tu vois un bandeau orange ou rouge en haut, le problème vient de chez eux. Tu n’y peux rien, et aucun troubleshooting local ne changera quoi que ce soit.
Si status.openai.com affiche tout en vert et que ChatGPT ne fonctionne toujours pas chez toi, continue la lecture.
ChatGPT répond lentement ou timeout : les 3 causes fréquentes
Un ChatGPT qui mouline pendant 30 secondes puis affiche « Something went wrong », c’est presque toujours l’un de ces trois cas :
Ta connexion internet. ChatGPT a besoin d’une connexion stable (pas juste rapide), parce que les réponses arrivent en streaming. Un débit fluctuant suffit à provoquer des timeouts, typiquement sur du Wi-Fi public ou saturé. Test rapide : ouvre fast.com et vérifie que ton débit ne descend pas sous 5 Mbps.
Un VPN ou un proxy qui interfère. Les VPN gratuits et certains proxys d’entreprise modifient les headers HTTP, ce qui peut déclencher les protections anti-bot de Cloudflare (le CDN qu’utilise OpenAI). Si tu utilises un VPN, désactive-le temporairement et reteste.
Les extensions navigateur. Les bloqueurs de pub agressifs (uBlock Origin en mode strict, Ghostery, Privacy Badger) bloquent parfois les requêtes WebSocket ou les appels à des domaines tiers nécessaires au fonctionnement de ChatGPT. Teste en navigation privée sans extensions.
« Network error » ou message coupé en plein milieu : le fix
C’est le bug le plus frustrant. Tu poses une question, ChatGPT commence à répondre, puis la réponse s’arrête net avec un « Network error » rouge. Ou pire : la réponse se coupe au milieu d’une phrase sans aucun message d’erreur.
Deux cas de figure se présentent.
Si la réponse est longue (plusieurs milliers de tokens) : ChatGPT a une limite de tokens en sortie par message qui varie selon le modèle (GPT-5.5 Instant, Thinking, Pro) et le tier d’abonnement. Le seuil exact n’est pas publié officiellement. Quand le modèle atteint cette limite, la génération s’arrête. Ce n’est pas un bug, c’est une contrainte technique. La solution : demande à ChatGPT de « continuer » ou reformule ta question pour obtenir une réponse plus courte. Tu peux aussi découper ta demande en plusieurs messages.
Si la réponse est courte et se coupe quand même : c’est probablement un problème réseau côté client. une procédure qui couvre la majorité des cas :
- Vide le cache de ton navigateur (Ctrl+Shift+Suppr sur PC, Cmd+Shift+Suppr sur Mac)
- Supprime les cookies du domaine
chatgpt.com - Ferme complètement le navigateur et rouvre-le
- Reconnecte-toi à ChatGPT
Si ça persiste, essaie un autre navigateur. Chrome et Edge sont les mieux supportés. Firefox et Safari fonctionnent, mais j’ai constaté plus de problèmes de WebSocket dessus.
ChatGPT refuse de répondre : les limites de contenu en 2026
Si ChatGPT te répond « I can’t help with that » ou une variante polie de refus, ce n’est pas une panne. C’est le système de modération.
Depuis les mises à jour de 2025 et 2026, OpenAI a renforcé les garde-fous de ChatGPT. Le modèle refuse activement de générer du contenu dans certaines catégories : instructions pour fabriquer des armes ou des drogues, contenu sexuel explicite impliquant des mineurs, usurpation d’identité, et certaines formes de désinformation médicale ou politique.
Mais le filtre est parfois trop sensible. J’ai vu des refus sur des demandes parfaitement légitimes : rédiger un article sur la cybersécurité défensive, expliquer le fonctionnement d’un médicament pour un cours de pharmacie, ou même écrire un dialogue de fiction avec un personnage moralement ambigu.
Quelques pistes si tu tombes dessus :
- Reformule ta demande en précisant le contexte professionnel ou éducatif
- Ajoute explicitement « ceci est pour un usage [éducatif/professionnel/fictionnel] »
- Passe par l’API avec les paramètres de modération ajustés (si tu es développeur)
Et si ton cas d’usage est légitime mais systématiquement bloqué, des alternatives comme Claude ont des politiques de modération différentes.
L’app mobile est plantée : solutions iOS et Android
L’app ChatGPT sur mobile a ses propres bugs, distincts de la version web. L’app iOS est sortie le 18 mai 2023, l’app Android le 25 juillet 2023, et les deux ont eu leur lot de mises à jour bancales depuis.
Sur iOS, le problème le plus fréquent en 2026 : l’app se ferme immédiatement après l’ouverture. Ça arrive souvent après une mise à jour iOS ou une mise à jour de l’app elle-même. Fix : supprime l’app, redémarre ton iPhone, réinstalle depuis l’App Store. Tes conversations sont synchronisées sur les serveurs d’OpenAI, tu ne perdras rien.
Sur Android, j’ai eu des retours de clients avec un bug spécifique : l’app fonctionne mais les réponses ne s’affichent pas (écran blanc dans la bulle de réponse). Le fix qui marche : va dans Paramètres > Applications > ChatGPT > Stockage > Vider le cache. Si ça ne suffit pas, « Effacer les données » et reconnecte-toi.
Dans les deux cas, vérifie que tu as la dernière version de l’app. Les versions obsolètes perdent la compatibilité avec l’API au fil des mises à jour côté serveur.
Tu as dépassé ta limite de messages (gratuit vs Plus)
ChatGPT impose des limites de messages selon ton plan. C’est la cause numéro un des « ChatGPT ne marche plus » chez les utilisateurs gratuits, et ils ne comprennent pas toujours ce qui se passe parce que le message d’erreur est vague.
Plan gratuit : tu as accès à GPT-5.5 Instant (modèle par défaut depuis le 5 mai 2026) avec un quota d’environ 10 messages toutes les 5 heures. Une fois le quota atteint, ChatGPT bascule sur la version mini du modèle jusqu’à la réinitialisation de la limite. GPT-5.5 Thinking et GPT-5.5 Pro ne sont pas accessibles sur le plan gratuit.
ChatGPT Go (8 $/mois) : lancé globalement le 16 janvier 2026, environ 10 fois plus de messages que le plan gratuit, avec accès à GPT-5.5 Instant (jusqu’à 160 messages toutes les 3 heures) et limites étendues sur les uploads et la création d’images.
ChatGPT Plus (20 $/mois) : quota nettement plus élevé, mais pas illimité. Accès à GPT-5.5 Instant et GPT-5.5 Thinking. La doc OpenAI à jour indique 160 messages toutes les 3 heures sur GPT-5.5 Instant pour Plus et Go, avec bascule sur la version mini après dépassement, et jusqu’à 3 000 messages/semaine sur GPT-5.5 Thinking. En cas de pic de charge, les utilisateurs Plus sont priorisés mais peuvent quand même être ralentis.
ChatGPT Pro (100 $/mois) : lancé le 9 avril 2026, ce nouveau tier offre 5x plus de capacité que Plus et donne accès à GPT-5.5 Pro. Pensé pour les utilisateurs intensifs (notamment Codex) qui n’ont pas besoin du tier 200 $.
ChatGPT Pro (200 $/mois) : lancé le 5 décembre 2024, c’est le plan avec le quota le plus généreux (20x Plus) et un accès prioritaire aux modèles de raisonnement avancés (GPT-5.5 Pro).
Si tu vois un message du type « You’ve reached the current usage cap » ou « Please try again later », c’est ça. Tu peux soit attendre (le quota se réinitialise progressivement), soit upgrader ton plan.
ChatGPT donne des réponses nulles depuis une mise à jour
C’est un ressenti que beaucoup remontent : ChatGPT semble s’être dégradé après telle ou telle mise à jour. Ce n’est pas que de la paranoïa.
À chaque mise à jour de modèle, OpenAI modifie les comportements de ChatGPT. Le passage de GPT-4o à GPT-5 (7 août 2025), puis à GPT-5.1 (12 novembre 2025), GPT-5.2 (11 décembre 2025), GPT-5.3-Codex puis GPT-5.3 Instant (devenu modèle par défaut le 3 mars 2026), GPT-5.4 Thinking et GPT-5.4 Pro (5 mars 2026), GPT-5.5 Thinking et GPT-5.5 Pro (23 avril 2026), puis GPT-5.5 Instant devenu modèle par défaut le 5 mai 2026 pour tous les utilisateurs, a provoqué des changements perceptibles à chaque itération. Certains prompts qui fonctionnaient bien sur une version donnent des résultats inférieurs sur la suivante. C’est un phénomène documenté dans la communauté de recherche IA sous le terme de « regression » comportementale.
Ce que tu peux faire :
- Réécris tes prompts. Un prompt optimisé pour GPT-4 ne sera pas optimal pour GPT-5.5. Notre starter pack ChatGPT couvre les bonnes pratiques actuelles.
- Utilise les « Custom instructions » de ChatGPT pour cadrer le comportement du modèle
- Si tu es développeur, teste via l’API avec des versions de modèle spécifiques plutôt que le endpoint « latest »
- Signale les régressions via le pouce vers le bas sur les réponses. OpenAI utilise ces retours pour affiner les modèles.
Mon avis personnel : la qualité perçue a baissé sur certaines tâches créatives entre GPT-5.2 et GPT-5.5, probablement à cause d’un renforcement des garde-fous. Sur le code et l’analyse, par contre, je trouve GPT-5.5 meilleur que ses prédécesseurs.
Les alternatives si ChatGPT est down
Quand ChatGPT est en panne et que tu as une deadline, il te faut un plan B. Voici les trois que j’utilise moi-même :
Claude (Anthropic). C’est mon premier choix quand ChatGPT est indisponible. Claude Opus 4.7, sorti le 16 avril 2026, est au niveau de GPT-5.5 sur la plupart des tâches et le dépasse sur le code. Le plan gratuit est généreux. J’ai écrit un comparatif détaillé des alternatives si tu veux creuser.
Gemini (Google). Gemini 3.1 Pro (sorti en février 2026) est solide, surtout pour les recherches factuelles grâce à l’intégration Google Search. Le plan gratuit donne accès au modèle Pro avec quota. Interface moins intuitive que ChatGPT, mais fonctionnel.
Perplexity. Pas un chatbot généraliste, mais imbattable pour les recherches avec sources. Si ton besoin immédiat est de trouver une information fiable avec des citations, Perplexity est plus rapide et plus précis que ChatGPT pour ça.
Ma checklist de diagnostic en 8 étapes
Voici la procédure exacte que je suis quand un client m’appelle avec un « ChatGPT ne marche plus ». Compte 3 à 5 minutes pour la dérouler en entier ; dans la grande majorité des cas, le problème est résolu avant l’étape 6.
- status.openai.com : si c’est rouge ou orange, attends. Fin du diagnostic.
- Test de connexion : ouvre un autre site lourd (YouTube, Google Maps). S’il rame aussi, c’est ton réseau.
- Navigation privée : ouvre ChatGPT en fenêtre privée. Si ça marche, c’est une extension ou le cache.
- Désactive ton VPN si tu en as un.
- Vide le cache + cookies de chatgpt.com et reconnecte-toi.
- Vérifie ton quota : tu as peut-être atteint ta limite de messages.
- Teste un autre navigateur ou l’app mobile.
- Reformule ta question : si c’est un refus de contenu, le problème est le prompt, pas l’outil.
Si après ces huit étapes ça ne fonctionne toujours pas, il y a probablement un problème côté OpenAI qui n’est pas encore remonté sur la page de statut. Ça arrive, surtout sur les premières minutes d’un incident. Passe sur Claude ou Gemini en attendant, et retente dans une heure.
Note pour les utilisateurs aux États-Unis : depuis le 9 février 2026, OpenAI affiche des publicités sur les plans Free et Go aux US (ChatGPT.com et apps mobiles). Si tu utilises un VPN US et que tu vois soudainement des sponsored cards, c’est volontaire et ne signale aucun bug. Cette monétisation n’est pas active pour les utilisateurs européens à la date du 8 mai 2026.
Codes d’erreur ChatGPT expliqués (API et webapp)
Si tu utilises l’API ou que ChatGPT renvoie un code numérique, voici la traduction directe :
Erreur 429 — Rate limit
Tu as dépassé ton quota de requêtes par minute (RPM) ou de tokens par minute (TPM) sur ton tier. C’est le code le plus fréquent quand on industrialise un script API. Solution : implémenter un backoff exponentiel (1s, 2s, 4s, 8s) ou monter de tier sur platform.openai.com/account/limits.
Erreur 500 — Internal server error
Problème côté OpenAI. Vérifier status.openai.com. Retry après 30s. Si persistant > 5 min sur ton seul appel, ouvrir un ticket support.
Erreur 503 — Service unavailable
Surcharge temporaire. Idem 500 mais souvent plus court (1-3 min). Backoff exponentiel suffit.
Erreur 401 — Unauthorized
Ta clé API est invalide, expirée ou révoquée. Régénérer sur platform.openai.com/api-keys.
Erreur 400 — Bad request
Ton payload JSON est mal formé, ou tu utilises un modèle dépréciée (ex. gpt-4-vision-preview en 2026). Lire le message error.message dans la réponse pour le détail.
FAQ
Pourquoi ChatGPT affiche « Something went wrong » ?
Ce message générique apparaît quand la requête n’aboutit pas côté serveur. Les causes principales : surcharge temporaire des serveurs OpenAI, problème de connexion internet, cache navigateur corrompu, ou extension qui bloque les requêtes. Commence par vérifier status.openai.com, puis teste en navigation privée.
Est-ce que ChatGPT a une limite de messages par jour ?
Oui. Le plan gratuit impose un quota d’environ 10 messages toutes les 5 heures sur GPT-5.5 Instant, avec bascule sur la version mini une fois la limite atteinte. ChatGPT Go (8 $/mois) et ChatGPT Plus (20 $/mois) montent à 160 messages toutes les 3 heures sur GPT-5.5 Instant, avec bascule mini en cas de dépassement. Plus débloque en plus GPT-5.5 Thinking (jusqu’à 3 000 messages par semaine). ChatGPT Pro à 100 $/mois (lancé le 9 avril 2026) offre 5x les limites de Plus et donne accès à GPT-5.5 Pro. ChatGPT Pro à 200 $/mois (lancé en décembre 2024) reste le plan avec le quota le plus généreux (20x Plus).
Comment vider le cache de ChatGPT ?
Sur navigateur : Ctrl+Shift+Suppr (PC) ou Cmd+Shift+Suppr (Mac), sélectionne « images et fichiers en cache » + « cookies » pour le domaine chatgpt.com, puis valide. Sur l’app mobile iOS : désinstalle et réinstalle l’app. Sur Android : Paramètres > Applications > ChatGPT > Stockage > Vider le cache.
ChatGPT fonctionne-t-il sans internet ?
Non. ChatGPT nécessite une connexion internet active et stable. Toute la génération de texte se fait sur les serveurs d’OpenAI. Il n’existe pas de mode hors ligne. Si tu as besoin d’un assistant IA sans connexion, tu peux utiliser des modèles locaux comme Ollama avec Llama ou Mistral, mais les performances sont inférieures.