WindowsでのSpecForgeのセットアップ
このガイドでは、スタンドアロン実行ファイルを使用してWindowsでSpecForgeをセットアップする方法を説明します。
1. 実行ファイルのダウンロード
SpecForgeリリースページからspecforge-x.y.z-Windows-X64.zipをダウンロードし、任意のディレクトリに解凍します。
2. 依存関係のインストール
SpecForge実行ファイルには、Z3とrsvg-converter(オプション)がシステムにインストールされている必要があります。
Chocolateyの使用(推奨)
PowerShellを管理者として開き、次のコマンドを実行します:
choco install z3 rsvg-convert
Chocolateyをお持ちでない場合は、chocolatey.orgからインストールできます。
手動インストール
パッケージマネージャーを使用したくない場合は、Z3リリースページから直接Z3をダウンロードし、PATHに追加してください。
3. ライセンスの設定
SpecForgeサーバーを起動するには、有効なライセンスファイルが必要です。ライセンスをお持ちでない場合は、SpecForgeチームに連絡するか、トライアルライセンスをリクエストしてください。
license.jsonファイルを次のいずれかの場所に配置します(最初に一致した場所が使用されます):
-
標準設定ディレクトリ(推奨):
%APPDATA%\specforge\license.json- 通常:
C:\Users\YourUsername\AppData\Roaming\specforge\license.json
-
環境変数(任意のパスを用いる場合):
$env:SPECFORGE_LICENSE_FILE="C:\path\to\license.json" -
カレントディレクトリ:
.\license.json
標準設定ディレクトリが存在しない場合は作成します。PowerShellで以下のように作成できます:
New-Item -ItemType Directory -Force -Path "$env:APPDATA\specforge"
Copy-Item "C:\path\to\your\license.json" "$env:APPDATA\specforge\license.json"
4. LLMプロバイダーの設定(オプション)
自然言語による仕様生成やエラー説明などのLLMベースの機能を使用するには、サーバーを起動する前に環境変数によってLLMプロバイダーを設定します。
OpenAIの場合(推奨):
$env:LLM_PROVIDER="openai"
$env:LLM_MODEL="gpt-5-nano-2025-08-07"
$env:OPENAI_API_KEY="your-api-key-here"
APIキーはplatform.openai.com/api-keysから取得できます。
他のプロバイダー(Gemini、Ollama)については、LLMプロバイダーの設定ガイドを参照してください。
5. サーバーの起動
SpecForge実行ファイルを解凍したディレクトリに移動し、次のコマンドを実行します:
.\specforge.exe serve
サーバーはhttp://localhost:8080で起動します。http://localhost:8080/healthにアクセスして、バージョン情報が表示されることを確認できます。
注意: ライセンスが見つからないか無効な場合、サーバーはすぐに終了します。起動時に問題が発生した場合は、ライセンス設定を確認してください。
6. VSCode拡張機能のインストール
SpecForge VSCode拡張機能をVisual Studio Marketplaceからインストールするか、VSCode拡張機能セットアップガイドを参照してください。
次のステップ
- VSCode拡張機能 - VSCode拡張機能の機能について学ぶ
- Python SDK - プログラムによるアクセスのためにPython SDKをセットアップする
- SpecForge早わかり - SpecForgeの機能を体験する
- プロジェクト設定 -
lilo.tomlによる設定について学ぶ