Conditions préalables
Avant de configurer Claude Code avec Vertex AI, assurez-vous que vous disposez de :- Un compte Google Cloud Platform (GCP) avec facturation activée
- Un projet GCP avec l’API Vertex AI activée
- Accès aux modèles Claude souhaités (par exemple, Claude Sonnet 4.6)
- Google Cloud SDK (
gcloud) installé et configuré - Quota alloué dans la région GCP souhaitée
Si vous déployez Claude Code pour plusieurs utilisateurs, épinglez vos versions de modèle pour éviter les ruptures lorsqu’Anthropic publie de nouveaux modèles.
Configuration de la région
Claude Code peut être utilisé avec les points de terminaison Vertex AI globaux et régionaux.Vertex AI peut ne pas supporter les modèles par défaut de Claude Code dans toutes les régions ou sur les points de terminaison globaux. Vous devrez peut-être basculer vers une région prise en charge, utiliser un point de terminaison régional ou spécifier un modèle pris en charge.
Configuration
1. Activer l’API Vertex AI
Activez l’API Vertex AI dans votre projet GCP :2. Demander l’accès au modèle
Demandez l’accès aux modèles Claude dans Vertex AI :- Accédez au Vertex AI Model Garden
- Recherchez les modèles « Claude »
- Demandez l’accès aux modèles Claude souhaités (par exemple, Claude Sonnet 4.6)
- Attendez l’approbation (peut prendre 24 à 48 heures)
3. Configurer les identifiants GCP
Claude Code utilise l’authentification Google Cloud standard. Pour plus d’informations, consultez la documentation d’authentification Google Cloud.Lors de l’authentification, Claude Code utilisera automatiquement l’ID de projet de la variable d’environnement
ANTHROPIC_VERTEX_PROJECT_ID. Pour remplacer cela, définissez l’une de ces variables d’environnement : GCLOUD_PROJECT, GOOGLE_CLOUD_PROJECT ou GOOGLE_APPLICATION_CREDENTIALS.4. Configurer Claude Code
Définissez les variables d’environnement suivantes :VERTEX_REGION_CLAUDE_*. Consultez la référence des variables d’environnement pour la liste complète. Vérifiez Vertex Model Garden pour déterminer quels modèles prennent en charge les points de terminaison globaux par rapport aux points de terminaison régionaux uniquement.
La mise en cache des invites est automatiquement prise en charge lorsque vous spécifiez l’indicateur éphémère cache_control. Pour la désactiver, définissez DISABLE_PROMPT_CACHING=1. Pour des limites de débit accrues, contactez le support Google Cloud. Lors de l’utilisation de Vertex AI, les commandes /login et /logout sont désactivées car l’authentification est gérée via les identifiants Google Cloud.
5. Épingler les versions de modèle
Définissez ces variables d’environnement sur des ID de modèle Vertex AI spécifiques :| Type de modèle | Valeur par défaut |
|---|---|
| Modèle principal | claude-sonnet-4-5@20250929 |
| Modèle petit/rapide | claude-haiku-4-5@20251001 |
Configuration IAM
Attribuez les autorisations IAM requises : Le rôleroles/aiplatform.user inclut les autorisations requises :
aiplatform.endpoints.predict- Requis pour l’invocation de modèle et le comptage des jetons
Créez un projet GCP dédié pour Claude Code pour simplifier le suivi des coûts et le contrôle d’accès.
Fenêtre de contexte de 1M de jetons
Claude Opus 4.6, Sonnet 4.6, Sonnet 4.5 et Sonnet 4 prennent en charge la fenêtre de contexte de 1M de jetons sur Vertex AI. Claude Code active automatiquement la fenêtre de contexte étendue lorsque vous sélectionnez une variante de modèle 1M. Pour activer la fenêtre de contexte de 1M pour votre modèle épinglé, ajoutez[1m] à l’ID du modèle. Consultez Épingler les modèles pour les déploiements tiers pour plus de détails.
Résolution des problèmes
Si vous rencontrez des problèmes de quota :- Vérifiez les quotas actuels ou demandez une augmentation de quota via la Console Cloud
- Confirmez que le modèle est activé dans Model Garden
- Vérifiez que vous avez accès à la région spécifiée
- Si vous utilisez
CLOUD_ML_REGION=global, vérifiez que vos modèles prennent en charge les points de terminaison globaux dans Model Garden sous « Fonctionnalités prises en charge ». Pour les modèles qui ne prennent pas en charge les points de terminaison globaux, soit :- Spécifiez un modèle pris en charge via
ANTHROPIC_MODELouANTHROPIC_DEFAULT_HAIKU_MODEL, soit - Définissez un point de terminaison régional à l’aide des variables d’environnement
VERTEX_REGION_<MODEL_NAME>
- Spécifiez un modèle pris en charge via
- Pour les points de terminaison régionaux, assurez-vous que le modèle principal et le modèle petit/rapide sont pris en charge dans votre région sélectionnée
- Envisagez de basculer vers
CLOUD_ML_REGION=globalpour une meilleure disponibilité