概要
Shannonは、すべてのサービスで環境変数を使用して設定を行います。このページでは、100以上の設定オプションをタイプ、デフォルト、影響とともに文書化しています。クイックリファレンス
| カテゴリ | 変数 | サービス |
|---|---|---|
| Core Runtime | 3 | すべて |
| LLM Provider Keys | 11 | LLMサービス |
| Web Search | 6 | LLMサービス |
| Data Stores | 17 | すべて |
| Service Endpoints | 8 | すべて |
| Model Routing | 13 | Orchestrator, LLMサービス |
| Cache & Rate Limiting | 8 | すべて |
| Tool Execution | 11 | Orchestrator, Agent Core |
| Security | 6 | Gateway, Orchestrator |
| Observability | 5 | すべて |
| WASI Sandbox | 4 | Agent Core, LLMサービス |
| Integrations | 13 | LLMサービス |
| Advanced | 20+ | Orchestrator |
設定ファイル
.env.exampleを.envにコピーしてカスタマイズします:
Core Runtime
ENVIRONMENT
タイプ: Stringデフォルト:
dev有効な値:
dev, staging, prodサービス: すべて
ホットリロード: いいえ(再起動が必要) ログの詳細度とポリシーの適用を制御します。
dev: 詳細なログ、緩和されたポリシーstaging: 中程度のログ、標準的なポリシーprod: 最小限のログ、厳格なポリシー
DEBUG
タイプ: Booleanデフォルト:
false有効な値:
true, falseサービス: すべて
ホットリロード: いいえ すべてのサービスでデバッグログを有効にします。
true: デバッグレベルのログ、スタックトレースfalse: 情報レベルのログのみ
SERVICE_NAME
タイプ: Stringデフォルト:
shannon-llm-serviceサービス: LLMサービス
ホットリロード: いいえ ログとテレメトリのためのサービス識別子。
LLM Provider API Keys
OPENAI_API_KEY
タイプ: String必須: 少なくとも1つのプロバイダーキー
サービス: LLMサービス
ホットリロード: はい GPTモデル用のOpenAI APIキー。
ANTHROPIC_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Claudeモデル用のAnthropic APIキー。
GOOGLE_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Geminiモデル用のGoogle AI APIキー。
GROQ_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい 高速推論用のGroq APIキー。
XAI_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Grokモデル用のxAI APIキー。
DEEPSEEK_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい DeepSeek APIキー。
QWEN_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Alibaba Cloudモデル用のQwen APIキー。
MISTRAL_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Mistral APIキー。
AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Bedrockモデル用のAWS認証情報。
ZAI_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい ZAI APIキー。
Web Search Providers
WEB_SEARCH_PROVIDER
タイプ: Stringデフォルト:
google有効な値:
google, serper, bing, exa, firecrawlサービス: LLMサービス
ホットリロード: はい アクティブなウェブ検索プロバイダー。
GOOGLE_SEARCH_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Google Custom Search APIキー。
SERPER_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Serper.dev APIキー(Google Search APIの代替)。
BING_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Microsoft Bing Search APIキー。
EXA_API_KEY
タイプ: Stringサービス: LLMサービス
ホットリロード: はい Exa AI検索APIキー。
FIRECRAWL_API_KEY
タイプ: 文字列サービス: LLMサービス
ホットリロード: はい Webスクレイピング用のFirecrawl APIキー。
データストア
PostgreSQL
POSTGRES_HOST
タイプ: 文字列デフォルト:
postgresサービス: ゲートウェイ、オーケストレーター
ホットリロード: いいえ PostgreSQLのホスト名。
POSTGRES_PORT
タイプ: 整数デフォルト:
5432範囲: 1-65535
サービス: ゲートウェイ、オーケストレーター
ホットリロード: いいえ PostgreSQLのポート。
POSTGRES_DB
タイプ: 文字列デフォルト:
shannonサービス: ゲートウェイ、オーケストレーター
ホットリロード: いいえ PostgreSQLのデータベース名。
POSTGRES_USER
タイプ: 文字列デフォルト:
shannonサービス: ゲートウェイ、オーケストレーター
ホットリロード: いいえ PostgreSQLのユーザー名。
POSTGRES_PASSWORD
タイプ: 文字列デフォルト:
shannonサービス: ゲートウェイ、オーケストレーター
ホットリロード: いいえ PostgreSQLのパスワード。
POSTGRES_SSLMODE
タイプ: 文字列デフォルト:
disable有効な値:
disable, require, verify-ca, verify-fullサービス: ゲートウェイ、オーケストレーター
ホットリロード: いいえ PostgreSQL接続のSSLモード。
Redis
REDIS_HOST
タイプ: 文字列デフォルト:
redisサービス: すべて
ホットリロード: いいえ Redisのホスト名。
REDIS_PORT
タイプ: 整数デフォルト:
6379サービス: すべて
ホットリロード: いいえ Redisのポート。
REDIS_PASSWORD
タイプ: 文字列デフォルト: 空
サービス: すべて
ホットリロード: いいえ Redisのパスワード(認証が有効な場合)。
REDIS_TTL_SECONDS
タイプ: 整数デフォルト:
3600範囲: 0-∞ (0 = 無期限)
サービス: すべて
ホットリロード: はい RedisキーのデフォルトTTL。
REDIS_URL
タイプ: 文字列デフォルト:
redis://redis:6379サービス: すべて
ホットリロード: いいえ 完全なRedis接続URL。
LLM_REDIS_URL
タイプ: 文字列デフォルト: 空(REDIS_URLを使用)
サービス: LLMサービス
ホットリロード: いいえ LLMレスポンスキャッシング用の専用Redisインスタンス。
Qdrant (ベクターストア)
QDRANT_URL
タイプ: 文字列デフォルト:
http://qdrant:6333サービス: オーケストレーター、LLMサービス
ホットリロード: いいえ Qdrant接続URL。
QDRANT_HOST / QDRANT_PORT
タイプ: 文字列 / 整数デフォルト:
qdrant / 6333サービス: オーケストレーター、LLMサービス
ホットリロード: いいえ QDRANT_URLの代替(ホスト/ポートを別々に指定)。
サービスエンドポイント
TEMPORAL_HOST
タイプ: 文字列デフォルト:
temporal:7233サービス: オーケストレーター
ホットリロード: いいえ Temporalサーバーのアドレス。
LLM_SERVICE_URL
タイプ: 文字列デフォルト:
http://llm-service:8000サービス: オーケストレーター、エージェントコア
ホットリロード: いいえ LLMサービスのエンドポイント。
AGENT_CORE_ADDR
タイプ: 文字列デフォルト:
agent-core:50051サービス: オーケストレーター
ホットリロード: いいえ エージェントコアのgRPCアドレス。
ORCHESTRATOR_GRPC
タイプ: 文字列デフォルト:
orchestrator:50052サービス: ゲートウェイ
ホットリロード: いいえ オーケストレーターのgRPCエンドポイント。
ADMIN_SERVER
タイプ: 文字列デフォルト:
http://orchestrator:8081サービス: ゲートウェイ
ホットリロード: いいえ イベントストリーミング用の管理/SSEサーバー。
CONFIG_PATH
タイプ: 文字列デフォルト:
./config/features.yamlサービス: オーケストレーター、エージェントコア
ホットリロード: はい(ファイルウォッチャー使用) フィーチャーフラグ設定のパス。
MODELS_CONFIG_PATH
タイプ: 文字列デフォルト:
./config/models.yamlサービス: LLMサービス、オーケストレーター
ホットリロード: はい(ファイルウォッチャー使用) モデルと価格設定のパス。
EVENTS_INGEST_URL
タイプ: 文字列デフォルト:
http://orchestrator:8081/eventsサービス: エージェントコア
ホットリロード: いいえ イベント取り込みエンドポイント。
モデルルーティングと予算
DEFAULT_MODEL_TIER
タイプ: 文字列デフォルト:
small有効な値:
small, medium, largeサービス: オーケストレーター
ホットリロード: はい タスクのデフォルトモデルティア。
small: GPT-5o-mini, Claude Haiku (~$0.15/1Mトークン)medium: GPT-5o, Claude Sonnet (~$3-15/1Mトークン)large: GPT-5, Claude Opus (~$15-75/1Mトークン)
COMPLEXITY_MODEL_ID
タイプ: 文字列デフォルト:
gpt-5サービス: Orchestrator
ホットリロード: はい 複雑性分析に使用されるモデルです。
DECOMPOSITION_MODEL_ID
タイプ: 文字列デフォルト:
claude-sonnet-4-20250514サービス: Orchestrator
ホットリロード: はい タスク分解に使用されるモデルです。
MAX_TOKENS
タイプ: 整数デフォルト:
2000範囲: 1-∞
サービス: LLM Service
ホットリロード: はい LLMコールごとの最大出力トークン数のデフォルトです。
TEMPERATURE
タイプ: 浮動小数点数デフォルト:
0.7範囲: 0.0-2.0
サービス: LLM Service
ホットリロード: はい LLMサンプリングのデフォルト温度です。
0.0: 決定論的、集中0.7: バランスの取れた創造性1.0+: よりランダムで創造的
MAX_TOKENS_PER_REQUEST
タイプ: 整数デフォルト:
10000範囲: 1-∞
サービス: Orchestrator
ホットリロード: はい タスクリクエストごとの最大トークン数です。
MAX_COST_PER_REQUEST
タイプ: 浮動小数点数デフォルト:
0.50範囲: 0.0-∞
サービス: Orchestrator
ホットリロード: はい タスクリクエストごとの最大コスト(USD)です。
LLM_DISABLE_BUDGETS
タイプ: 整数デフォルト:
1有効な値:
0, 1サービス: Orchestrator, LLM Service
ホットリロード: はい バジェットの強制場所です。
1: Orchestratorがバジェットを管理(推奨)0: LLMサービスがバジェットを強制
HISTORY_WINDOW_MESSAGES
タイプ: 整数デフォルト:
50範囲: 1-∞
サービス: Orchestrator
ホットリロード: はい 会話履歴に含めるメッセージの数です。
HISTORY_WINDOW_DEBUG_MESSAGES
タイプ: 整数デフォルト:
75サービス: Orchestrator
ホットリロード: はい デバッグモードの履歴ウィンドウサイズです。
WORKFLOW_SYNTH_BYPASS_SINGLE
タイプ: ブール値デフォルト:
trueサービス: Orchestrator
ホットリロード: はい 単一結果のワークフローの合成をスキップします。
true: 簡単なタスクに対して高速(合成ステップをスキップ)false: 常に結果を合成
TOKEN_BUDGET_PER_AGENT
タイプ: 整数デフォルト: 空(無制限)
サービス: Orchestrator
ホットリロード: はい エージェント実行ごとのトークン予算です。
TOKEN_BUDGET_PER_TASK
タイプ: 整数デフォルト: 空(無制限)
サービス: Orchestrator
ホットリロード: はい 全タスクに対するトークン予算です。
キャッシュとレート制限
ENABLE_CACHE
タイプ: ブール値デフォルト:
trueサービス: LLM Service
ホットリロード: はい LLM応答のキャッシングを有効にします。
true: Redisに応答をキャッシュし、高速かつ安価false: 常にLLM APIにアクセス
CACHE_SIMILARITY_THRESHOLD
タイプ: 浮動小数点数デフォルト:
0.95範囲: 0.0-1.0
サービス: LLM Service
ホットリロード: はい キャッシュヒットのための意味的類似性の閾値です。
1.0: 完全一致のみ0.95: 非常に類似したクエリ0.8: ゆるい一致(キャッシュヒットが増え、精度が低下)
RATE_LIMIT_REQUESTS
タイプ: 整数デフォルト:
100サービス: Gateway
ホットリロード: はい APIキーごとのウィンドウあたりのリクエスト数です。
RATE_LIMIT_WINDOW
タイプ: 整数デフォルト:
60範囲: 1-∞(秒)
サービス: Gateway
ホットリロード: はい レート制限ウィンドウの期間です。
WEB_SEARCH_RATE_LIMIT
タイプ: 整数デフォルト:
120サービス: LLM Service
ホットリロード: はい 1分あたりのウェブ検索リクエスト数です。
CALCULATOR_RATE_LIMIT
タイプ: 整数デフォルト:
2000サービス: LLM Service
ホットリロード: はい 1分あたりの計算ツールリクエスト数です。
PYTHON_EXECUTOR_RATE_LIMIT
タイプ: 整数デフォルト:
60サービス: Agent Core
ホットリロード: はい 1分あたりのPythonコード実行リクエスト数です。
PARTIAL_CHUNK_CHARS
タイプ: 整数デフォルト:
512サービス: LLM Service
ホットリロード: はい ストリーミングチャンクごとの文字数です。
ツール実行とワークフロー
TOOL_PARALLELISM
タイプ: 整数デフォルト:
5範囲: 1-∞(1 = 逐次)
サービス: Orchestrator, Agent Core
ホットリロード: はい 同時ツール実行数です。
1: 逐次実行(遅い、安全)5: 5つのツールを並行して実行(速い、リソースを多く使用)10+: 高い並行性(最速、最高のリソース使用)
ENABLE_TOOL_SELECTION
タイプ: 整数デフォルト:
1有効な値:
0, 1サービス: Orchestrator
ホットリロード: はい プランナーによる自動ツール選択。
1: プランナーがツールを自動選択(推奨)0: 手動でツールを指定のみ
PRIORITY_QUEUES
タイプ: 文字列デフォルト:
off有効な値:
on, offサービス: Orchestrator
ホットリロード: はい 優先度に基づくタスクキューの有効化。
STREAMING_RING_CAPACITY
タイプ: 整数デフォルト:
1000サービス: Orchestrator
ホットリロード: いいえ ストリーミングイベントのリングバッファ容量。
COMPRESSION_TRIGGER_RATIO
タイプ: 浮動小数点数デフォルト:
0.75範囲: 0.0-1.0
サービス: Orchestrator
ホットリロード: はい コンテキスト圧縮のトリガー閾値。
COMPRESSION_TARGET_RATIO
タイプ: 浮動小数点数デフォルト:
0.375範囲: 0.0-1.0
サービス: Orchestrator
ホットリロード: はい 圧縮後のターゲットサイズ。
ENFORCE_TIMEOUT_SECONDS
タイプ: 整数デフォルト:
90サービス: Agent Core
ホットリロード: はい ツール実行のタイムアウト。
ENFORCE_MAX_TOKENS
タイプ: 整数デフォルト:
32768サービス: Agent Core
ホットリロード: はい エージェント実行ごとの最大トークン数。
ENFORCE_RATE_RPS
タイプ: 整数デフォルト:
20サービス: Agent Core
ホットリロード: はい エージェント操作のレート制限(秒あたりのリクエスト数)。
ENFORCE_CB_ERROR_THRESHOLD
タイプ: 浮動小数点数デフォルト:
0.5範囲: 0.0-1.0
サービス: Agent Core
ホットリロード: はい サーキットブレーカーのエラー率閾値。
ENFORCE_CB_WINDOW_SECONDS
タイプ: 整数デフォルト:
30サービス: Agent Core
ホットリロード: はい サーキットブレーカーの測定ウィンドウ。
ENFORCE_CB_MIN_REQUESTS
タイプ: 整数デフォルト:
20サービス: Agent Core
ホットリロード: はい サーキットブレーカーがアクティブになる前の最小リクエスト数。
承認とセキュリティ
APPROVAL_ENABLED
タイプ: ブールデフォルト:
falseサービス: Orchestrator
ホットリロード: はい 人間による承認を有効化。
APPROVAL_COMPLEXITY_THRESHOLD
タイプ: 浮動小数点数デフォルト:
0.5範囲: 0.0-1.0
サービス: Orchestrator
ホットリロード: はい 承認が必要な複雑さの閾値。
APPROVAL_DANGEROUS_TOOLS
タイプ: 文字列(カンマ区切り)デフォルト:
file_system,code_executionサービス: Orchestrator
ホットリロード: はい 承認が必要なツール。
APPROVAL_TIMEOUT_SECONDS
タイプ: 整数デフォルト:
7200サービス: Orchestrator
ホットリロード: はい 承認リクエストのタイムアウト(2時間)。
JWT_SECRET
タイプ: 文字列デフォルト:
development-only-secret-change-in-productionサービス: Gateway
ホットリロード: いいえ JWT署名の秘密。
GATEWAY_SKIP_AUTH
タイプ: 整数デフォルト:
1有効な値:
0, 1サービス: Gateway
ホットリロード: はい(再起動推奨) 認証をスキップ(開発用のみ)。
0 に設定してください!
テンプレート
TEMPLATE_FALLBACK_ENABLED
タイプ: ブールデフォルト:
falseサービス: Orchestrator
ホットリロード: はい テンプレートが失敗した場合にAIにフォールバック。
可観測性とテレメトリー
OTEL_SERVICE_NAME
タイプ: 文字列デフォルト:
shannon-llm-serviceサービス: すべて
ホットリロード: いいえ OpenTelemetry用のサービス名。
OTEL_EXPORTER_OTLP_ENDPOINT
タイプ: 文字列デフォルト:
localhost:4317サービス: すべて
ホットリロード: いいえ OTLPエクスポータのエンドポイント。
OTEL_ENABLED
タイプ: ブールデフォルト:
falseサービス: すべて
ホットリロード: いいえ OpenTelemetryトレーシングを有効化。
LOG_FORMAT
タイプ: 文字列デフォルト:
plain有効な値:
plain, jsonサービス: Agent Core (Rust)
ホットリロード: いいえ ログ出力フォーマット。
METRICS_PORT
タイプ: 整数デフォルト:
2112サービス: すべて
ホットリロード: いいえ Prometheusメトリクスポート。
Python WASI Sandbox
PYTHON_WASI_WASM_PATH
タイプ: 文字列デフォルト:
./wasm-interpreters/python-3.11.4.wasmサービス: Agent Core, LLM Service
ホットリロード: いいえ Python WASI インタープリタへのパス。
PYTHON_WASI_SESSION_TIMEOUT
タイプ: 整数デフォルト:
3600サービス: LLM Service
ホットリロード: はい Python セッションのタイムアウト(秒)。
WASI_MEMORY_LIMIT_MB
タイプ: 整数デフォルト:
512サービス: Agent Core
ホットリロード: はい WASI サンドボックスのメモリ制限(MB)。
WASI_TIMEOUT_SECONDS
タイプ: 整数デフォルト:
60サービス: Agent Core
ホットリロード: はい WASI 実行のタイムアウト。
OpenAPI と MCP
OpenAPI 統合
OPENAPI_ALLOWED_DOMAINS
タイプ: 文字列デフォルト:
*サービス: LLM Service
ホットリロード: はい OpenAPI スペック取得のための許可されたドメイン。
OPENAPI_MAX_SPEC_SIZE
タイプ: 整数デフォルト:
5242880 (5 MB)サービス: LLM Service
ホットリロード: はい 最大 OpenAPI スペックファイルサイズ。
OPENAPI_FETCH_TIMEOUT
タイプ: 整数デフォルト:
30サービス: LLM Service
ホットリロード: はい OpenAPI スペック取得のタイムアウト。
OPENAPI_RETRIES
タイプ: 整数デフォルト:
2サービス: LLM Service
ホットリロード: はい OpenAPI 操作の再試行回数(スペック取得と API 呼び出し)。
MCP 統合
MCP_ALLOWED_DOMAINS
タイプ: 文字列デフォルト:
*サービス: LLM Service
ホットリロード: はい MCP サーバーのための許可されたドメイン。
MCP_MAX_RESPONSE_BYTES
タイプ: 整数デフォルト:
10485760 (10 MB)サービス: LLM Service
ホットリロード: はい 最大 MCP 応答サイズ。
MCP_RETRIES
タイプ: 整数デフォルト:
3サービス: LLM Service
ホットリロード: はい MCP リクエストの再試行回数。
MCP_TIMEOUT_SECONDS
タイプ: 整数デフォルト:
10サービス: LLM Service
ホットリロード: はい MCP リクエストのタイムアウト。
MCP_REGISTER_TOKEN
タイプ: 文字列デフォルト: 空
サービス: LLM Service
ホットリロード: はい MCP サーバー登録のための認証トークン。
MCP_RATE_LIMIT_DEFAULT
タイプ: 整数デフォルト:
60サービス: LLM Service
ホットリロード: はい MCP ツールのデフォルトレート制限(リクエスト/分)。
MCP_CB_FAILURES
タイプ: 整数デフォルト:
5サービス: LLM Service
ホットリロード: はい MCP のサーキットブレイカーの失敗閾値。
MCP_CB_RECOVERY_SECONDS
タイプ: 整数デフォルト:
60サービス: LLM Service
ホットリロード: はい サーキットブレイカーの回復時間。
MCP_COST_TO_TOKENS
タイプ: 整数デフォルト:
0サービス: LLM Service
ホットリロード: はい MCP ツールのトークンコスト倍率。
高度なオーケストレーター制御
EVENTLOG_BATCH_SIZE
タイプ: 整数デフォルト:
100サービス: Orchestrator
ホットリロード: はい データベース書き込みのバッチあたりのイベント数。
EVENTLOG_BATCH_INTERVAL_MS
タイプ: 整数デフォルト:
100サービス: Orchestrator
ホットリロード: はい バッチ間隔(ミリ秒)。
RATE_LIMIT_INTERVAL_MS
タイプ: 整数デフォルト:
60000サービス: Orchestrator
ホットリロード: はい レート制限ウィンドウ(ミリ秒)。
Worker Concurrency
優先度キューごとの Temporal ワーカーの同時実行数を設定します。- 高い値 = より多くの同時実行、より多くのリソース使用
- 低い値 = より少ない同時実行、より少ないリソース使用
LLM_TIMEOUT_SECONDS
タイプ: 整数デフォルト:
120サービス: Orchestrator
ホットリロード: はい LLM API 呼び出しのタイムアウト。
その他
SHANNON_WORKSPACE
タイプ: 文字列デフォルト:
./workspaceサービス: Agent Core
ホットリロード: いいえ ファイル操作のためのワークスペースディレクトリ。
SEED_DATA
タイプ: ブール値デフォルト:
falseサービス: すべて
ホットリロード: いいえ 起動時に Qdrant にサンプルデータをシードします。
AGENT_TIMEOUT_SECONDS
タイプ: 整数デフォルト:
600サービス: Agent Core
ホットリロード: はい エージェント実行ごとの最大ランタイム。