n8n Cloud vient de basculer en version 2.0 ce 31 mars 2026. Au programme : des nœuds IA natifs pour GPT-5.4, Claude Sonnet 4.6 et Gemini 2.0, un éditeur visuel repensé, et surtout une grille tarifaire qui redistribue les cartes face à Make et Zapier. Décryptage complet de cette mise à jour majeure pour l’écosystème no-code/low-code.
Les nouvelles intégrations IA natives de n8n Cloud v2
n8n Cloud v2 embarque désormais 14 nœuds IA préconfigurés, contre 5 dans la version précédente. La différence majeure : ces nœuds ne sont plus de simples appels HTTP habillés — ils intègrent une gestion native du streaming, du retry intelligent et du token management.
Voici les intégrations phares :
| Modèle IA | Nœud dédié | Fonctionnalités clés |
|---|---|---|
| GPT-5.4 (OpenAI) | OpenAI Advanced Node | Vision, function calling, structured output JSON |
| Claude Sonnet 4.6 (Anthropic) | Anthropic Node v2 | Contexte 200K, tool use natif, batch processing |
| Gemini 2.0 Pro (Google) | Google AI Node | Multimodal, grounding avec Search, code execution |
| Mistral Large 3 | Mistral Node | EU-hosted, function calling, fine-tuning connector |
| LLaMA 4 (Meta) | Meta AI Node | Self-hosted compatible, RAG intégré |
Le point fort : chaque nœud IA inclut un mode « AI Chain » qui permet d’enchaîner les appels avec mémoire conversationnelle, directement dans le workflow. Tu n’as plus besoin de gérer le contexte manuellement via des nœuds Function. Pour exploiter ces modèles via API dans tes propres projets, consulte notre guide pratique de l’API ChatGPT — les principes s’appliquent à tous les LLM.
n8n a aussi ajouté un nœud « AI Agent » générique qui supporte n’importe quel endpoint compatible OpenAI. Concrètement, tu branches ton modèle self-hosted (via Ollama, vLLM ou text-generation-inference) et tu accèdes aux mêmes fonctionnalités que les nœuds dédiés.
Un éditeur visuel repensé pour les workflows complexes
L’éditeur canvas a été reconstruit sur une base WebGL. Résultat concret : les workflows de plus de 100 nœuds ne rament plus. n8n annonce un gain de performance de 60% sur le rendu et la navigation.
Les ajouts notables :
- Sub-workflows visuels : tu peux désormais imbriquer des workflows et les voir comme des blocs repliables
- Debug mode amélioré : inspection des données à chaque nœud en temps réel, avec diff avant/après transformation
- Version control natif : historique Git intégré pour chaque workflow, avec branching et merge
- Annotations collaboratives : commentaires et tags directement sur le canvas, synchronisés en temps réel entre membres de l’équipe
« On a reconstruit l’éditeur de zéro. L’ancien tenait avec du scotch au-delà de 50 nœuds. La v2 est pensée pour des workflows de production avec des centaines de nœuds. » — Jan Oberhauser, CEO de n8n, lors de l’annonce officielle.
Nouveau pricing : ce qui change concrètement
La grille tarifaire de n8n Cloud v2 abandonne le modèle par exécution au profit d’un modèle basé sur le temps de calcul (compute time). Un changement de philosophie qui avantage les workflows légers mais fréquents, et pénalise les traitements lourds.
| Plan | Prix mensuel | Compute time inclus | Workflows actifs | Utilisateurs |
|---|---|---|---|---|
| Starter | 24 €/mois | 5 000 minutes | 20 | 1 |
| Pro | 59 €/mois | 20 000 minutes | Illimités | 5 |
| Enterprise | Sur devis | Personnalisé | Illimités | Illimités |
Comparé à l’ancien pricing : le plan Starter passe de 20 € à 24 € (+20%), mais inclut désormais les nœuds IA sans surcoût. Le plan Pro baisse de 65 € à 59 €, ce qui le rend plus compétitif face à Make Pro (66 €/mois pour 10 000 opérations).
Point crucial : les nœuds IA consomment 3x plus de compute time qu’un nœud standard. Un workflow qui appelle GPT-5.4 sur 1 000 lignes de données va consommer environ 150 minutes de compute. À garder en tête pour le dimensionnement.
n8n Cloud v2 vs Make : le fossé se creuse ?
Cette v2 repositionne clairement n8n sur le segment développeur/technique, là où Make reste plus accessible pour les profils non-techniques. Les deux outils ne jouent plus vraiment dans la même cour.
Les avantages de n8n Cloud v2 sur Make :
- Flexibilité code : nœuds JavaScript/Python natifs avec accès npm/pip
- Self-host possible : tu peux migrer du Cloud vers le self-hosted sans refaire tes workflows
- Intégrations IA : 14 nœuds IA natifs contre 3 modules IA chez Make
- Git natif : versioning intégré, absent chez Make
Les avantages de Make :
- Courbe d’apprentissage : interface plus intuitive pour les non-devs
- Marketplace : +1 500 templates prêts à l’emploi
- Stabilité : écosystème plus mature, moins de breaking changes
Pour un comparatif détaillé entre les deux plateformes, notre article n8n vs Make : quel outil d’automatisation choisir en 2026 couvre tous les critères de décision. Et si tu débutes avec Make, notre guide complet Make reste la référence.
Migrer vers n8n Cloud v2 : ce qu’il faut savoir
La migration est automatique pour les comptes Cloud existants. n8n a déployé la v2 progressivement depuis le 28 mars, avec bascule complète au 31 mars 2026.
Points d’attention :
- Nœuds dépréciés : 3 nœuds communautaires (HTTP Legacy, FTP Basic, XML Transform) sont remplacés par leurs équivalents v2. Tes workflows existants continuent de fonctionner, mais les anciens nœuds ne recevront plus de mises à jour
- Credentials : les connexions API existantes sont migrées automatiquement. Vérifie quand même tes tokens après la migration
- Compute time : ton ancien quota d’exécutions est converti en minutes de compute. n8n fournit un simulateur dans le dashboard pour estimer l’impact sur ta facture
- Webhooks : les URLs de webhook ne changent pas — aucune modification côté services externes
Verdict : pour qui cette v2 est-elle pertinente ?
n8n Cloud v2 cible clairement les équipes tech qui automatisent des pipelines IA. Si tu construis des workflows qui appellent des LLM, traitent des documents ou orchestrent des agents IA, cette mise à jour est significative.
Pour les cas d’usage simples (synchro CRM, notifications Slack, ETL basique), la v2 n’apporte pas de rupture majeure. Le nouveau pricing peut même être moins avantageux si tes workflows sont peu nombreux mais gourmands en calcul.
Notre recommandation :
- Tu fais de l’automatisation IA → n8n Cloud v2 devient incontournable
- Tu veux du no-code accessible → Make reste plus adapté
- Tu veux le contrôle total → n8n self-hosted + les nouveaux nœuds IA (disponibles aussi en open source)
Pour choisir le bon modèle IA à intégrer dans tes workflows, notre comparatif Gemini 2.0 Pro vs GPT-5.4 vs Claude Sonnet 4.6 t’aidera à trancher.
FAQ
n8n Cloud v2 est-il rétrocompatible avec mes workflows existants ?
Oui. Tous les workflows existants fonctionnent sans modification. Seuls 3 nœuds communautaires legacy sont dépréciés, mais ils restent opérationnels — ils ne reçoivent simplement plus de mises à jour.
Le self-hosted bénéficie-t-il aussi des nœuds IA de la v2 ?
Oui. Les 14 nœuds IA sont disponibles en open source dans la version community 1.38+. Le Cloud ajoute le scaling automatique, le monitoring et le support, mais les fonctionnalités IA sont identiques.
Comment est calculé le compute time pour les nœuds IA ?
Chaque nœud IA consomme 3x le compute time d’un nœud standard. Un appel API à GPT-5.4 avec traitement de réponse compte environ 0,15 minute. n8n fournit un dashboard de monitoring en temps réel pour suivre ta consommation.
Peut-on connecter un modèle IA self-hosted (Ollama, vLLM) à n8n Cloud v2 ?
Oui, via le nœud « AI Agent » générique qui supporte tout endpoint compatible avec l’API OpenAI. Tu renseignes l’URL de ton serveur et tu accèdes aux mêmes fonctionnalités (streaming, retry, token tracking) que les nœuds dédiés.
n8n Cloud v2 est-il plus cher que Make pour un usage équivalent ?
Pour les workflows IA : non, n8n Pro (59 €) est moins cher que Make Pro (66 €) à volume comparable. Pour les workflows simples sans IA, Make reste souvent plus économique grâce à son modèle par opération. Consulte notre comparatif n8n vs Make pour un calcul détaillé selon ton usage.