mirror of
https://github.com/OpenHands/OpenHands.git
synced 2025-12-26 05:48:36 +08:00
1.6 KiB
1.6 KiB
Google Gemini/Vertex
OpenHands utilise LiteLLM pour effectuer des appels aux modèles de chat de Google. Vous pouvez consulter leur documentation sur l'utilisation de Google comme fournisseur :
Configurations Gemini - Google AI Studio
Lors de l'exécution d'OpenHands, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les Paramètres :
LLM ProvidersurGeminiLLM Modelsur le modèle que vous utiliserez. Si le modèle n'est pas dans la liste, activez les optionsAdvanced, et saisissez-le dansCustom Model(par exemple gemini/<nom-du-modèle> commegemini/gemini-2.0-flash).API Keyavec votre clé API Gemini
Configurations VertexAI - Google Cloud Platform
Pour utiliser Vertex AI via Google Cloud Platform lors de l'exécution d'OpenHands, vous devrez définir les variables d'environnement suivantes en utilisant -e dans la commande docker run :
GOOGLE_APPLICATION_CREDENTIALS="<json-dump-du-compte-de-service-gcp-json>"
VERTEXAI_PROJECT="<votre-id-de-projet-gcp>"
VERTEXAI_LOCATION="<votre-emplacement-gcp>"
Ensuite, définissez les éléments suivants dans l'interface utilisateur d'OpenHands via les Paramètres :
LLM ProvidersurVertexAILLM Modelsur le modèle que vous utiliserez. Si le modèle n'est pas dans la liste, activez les optionsAdvanced, et saisissez-le dansCustom Model(par exemple vertex_ai/<nom-du-modèle>).