mirror of
https://github.com/OpenHands/OpenHands.git
synced 2025-12-26 05:48:36 +08:00
3.2 KiB
3.2 KiB
ローカルLLM(SGLangまたはvLLM)の使用
:::warning ローカルLLMを使用する場合、OpenHandsの機能が制限される可能性があります。 最適な体験を得るためには、GPUを使用してローカルモデルを提供することを強く推奨します。 :::
ニュース
Huggingfaceからモデルをダウンロード
例えば、OpenHands LM 32B v0.1をダウンロードするには:
huggingface-cli download all-hands/openhands-lm-32b-v0.1 --local-dir all-hands/openhands-lm-32b-v0.1
モデル提供フレームワークでOpenAI互換エンドポイントを作成
SGLangでの提供
- 公式ドキュメントに従ってSGLangをインストールします。
- OpenHands LM 32B用の起動コマンド例(少なくとも2つのGPUが必要):
SGLANG_ALLOW_OVERWRITE_LONGER_CONTEXT_LEN=1 python3 -m sglang.launch_server \
--model all-hands/openhands-lm-32b-v0.1 \
--served-model-name openhands-lm-32b-v0.1 \
--port 8000 \
--tp 2 --dp 1 \
--host 0.0.0.0 \
--api-key mykey --context-length 131072
vLLMでの提供
- 公式ドキュメントに従ってvLLMをインストールします。
- OpenHands LM 32B用の起動コマンド例(少なくとも2つのGPUが必要):
vllm serve all-hands/openhands-lm-32b-v0.1 \
--host 0.0.0.0 --port 8000 \
--api-key mykey \
--tensor-parallel-size 2 \
--served-model-name openhands-lm-32b-v0.1
--enable-prefix-caching
OpenHandsの実行と設定
OpenHandsの実行
Dockerを使用
公式のdocker実行コマンドを使用してOpenHandsを実行します。
開発モードを使用
Development.mdの指示に従ってOpenHandsをビルドします。
make setup-configを実行してconfig.tomlが存在することを確認します。これにより設定ファイルが作成されます。config.tomlに以下を入力します:
[core]
workspace_base="/path/to/your/workspace"
[llm]
model="openhands-lm-32b-v0.1"
ollama_base_url="http://localhost:8000"
make runを使用してOpenHandsを起動します。
OpenHandsの設定
OpenHandsが実行されたら、設定を通じてOpenHands UIで以下を設定する必要があります:
Advancedオプションを有効にします。- 以下を設定します:
Custom Modelをopenai/<served-model-name>(例:openai/openhands-lm-32b-v0.1)に設定Base URLをhttp://host.docker.internal:8000に設定API keyをモデル提供時に設定したのと同じ文字列(例:mykey)に設定