LLMプロバイダーの設定
SpecForgeには、自然言語による仕様生成やエラー説明などのLLMベースの機能が含まれています。これらの機能を使用するには、LLMプロバイダーを設定する必要があります。
サポートされているプロバイダー
SpecForgeは現在、3つのLLMプロバイダーをサポートしています:
- OpenAI - クラウドベースのAPI(ほとんどのユーザーに推奨)
- Gemini - GoogleのクラウドベースのAPI
- Ollama - マシン上でモデルをローカルで実行
設定方法
実行ファイル用(Windows、macOS、Linux)
SpecForgeサーバーを起動する前に、次の環境変数を設定します:
OpenAI
# Linux / macOS
export SPECFORGE_LLM_PROVIDER=openai
export SPECFORGE_LLM_MODEL=gpt-5-nano-2025-08-07
export OPENAI_API_KEY=your-api-key-here
# Windows PowerShell
$env:SPECFORGE_LLM_PROVIDER="openai"
$env:SPECFORGE_LLM_MODEL="gpt-5-nano-2025-08-07"
$env:OPENAI_API_KEY="your-api-key-here"
APIキーはplatform.openai.com/api-keysから取得できます。
Gemini
# Linux / macOS
export SPECFORGE_LLM_PROVIDER=gemini
export SPECFORGE_LLM_MODEL=gemini-2.5-flash
export GEMINI_API_KEY=your-api-key-here
# Windows PowerShell
$env:SPECFORGE_LLM_PROVIDER="gemini"
$env:SPECFORGE_LLM_MODEL="gemini-2.5-flash"
$env:GEMINI_API_KEY="your-api-key-here"
APIキーはai.google.dev/gemini-api/docs/api-keyから取得できます。
Ollama
まず、docs.ollama.com/quickstartからOllamaをインストールして実行します。
次に、環境変数を設定します:
# Linux / macOS
export SPECFORGE_LLM_PROVIDER=ollama
export SPECFORGE_LLM_MODEL=your-model-name # 例:llama3.2、mistral
export OLLAMA_API_BASE=http://127.0.0.1:11434
# Windows PowerShell
$env:SPECFORGE_LLM_PROVIDER="ollama"
$env:SPECFORGE_LLM_MODEL="your-model-name" # 例:llama3.2、mistral
$env:OLLAMA_API_BASE="http://127.0.0.1:11434"
Ollamaサーバーが別のマシンで実行されている場合は、OLLAMA_API_BASEを変更してください。
Docker用
docker-compose.ymlファイルの環境変数を変更します:
- SPECFORGE_LLM_PROVIDER=openai # その他のオプション: ollama、gemini
- SPECFORGE_LLM_MODEL=gpt-5-nano-2025-08-07 # プロバイダーに適したモデルを選択
# LLM_PROVIDERに応じて次のいずれか:
- OPENAI_API_KEY=${OPENAI_API_KEY}
- GEMINI_API_KEY=${GEMINI_API_KEY}
- OLLAMA_API_BASE=http://127.0.0.1:11434 # ollamaサーバーがリモートで実行されている場合は変更してください
APIキーを直接ファイルに挿入することもできます:
- SPECFORGE_LLM_PROVIDER=gemini
- GEMINI_API_KEY=abc123XYZ # 文字列の引用符は不要
ただし、セキュリティのために環境変数を使用する方が推奨されます。
デフォルトモデル
SPECFORGE_LLM_MODEL変数を設定しない場合:
- OpenAI: デフォルトは
gpt-5-nano-2025-08-07 - Gemini: デフォルトは
gemini-2.5-flash - Ollama: モデルを指定する必要があります(デフォルトなし)
LLM設定なしの場合
適切なLLMプロバイダー設定がない場合、LLMベースのSpecForge機能は利用できません。SpecForgeの残りの部分は通常どおり動作し続けます。