Tree-of-Thoughtとは?
📍 In One Sentence
ToT はモデルに「3つのアプローチを探索し、評価し、最適なものを選択する」よう指示します。
💬 In Plain Terms
誰かに異なるルートを3つ検討させ、それぞれの利点と欠点を比較させ、最初に思いついたルートに従うのではなく最高を選ぶよう求めるのと同じです。
Tree-of-Thought は、モデルに複数の推論経路を探索させ、それぞれを評価してから最良の経路を選択して最終回答を提供するよう指示します。線形の Chain-of-Thought と異なり、ToT は明示的に複数の選択肢を作成し比較します。
🔍 Pro Tip
ブランチ数(「正確に3つのアプローチを生成」)と評価基準(「実行可能性、コスト、時間で比較」)を常に指定してください。基準を指定しないと、モデルは最初に生成したブランチを選択する傾向があります。
ReActとは?
📍 In One Sentence
ReAct は交互に実行:考える → 行動する → 観察する → 繰り返す。
💬 In Plain Terms
仮説を立て、それをテストするために情報を検索し、結果を読んで仮説を更新する — これが ReAct がステップバイステップで行うことです。
「ReAct」(Reason + Act)は、推論ステップをアクション(ツール呼び出し、検索、ルックアップ)と交互に実行し、結果を観察します。これはすべての現代的 AIエージェント — 自律コーディングから Web 検索まで — の基本パターンです。
🔍 Did You Know
Claude Code がファイルを編集し、テストを実行し、出力に基づいてエラーを修正するたびに、ReAct ループを実行しています。2023年論文の Thought-Action-Observation パターンは、今や数百万の開発者が使用する自律 AIコーディングツールの中核です。
主な違い
Chain-of-Thought (CoT) : 単一線形経路。モデルは代替案を探索せずに「ステップバイステップ考える」。
Tree-of-Thought (ToT) : 意図的分岐。2-5のブランチを探索、評価し、最適を選択。トークン消費がはるかに大きい。
ReAct : ツール相互作用のある線形ループ。モデルは推論と外部ツール呼び出し(search、API、コード実行)を交互実行。
使用例 — CoT は簡単な説明とロジック向け。ToT は戦略・計画で選択肢が重要な場合。ReAct は外部相互作用が必要な調査・デバッグ向け。
比較表:CoT vs ToT vs ReAct
| 次元 | Chain-of-Thought (CoT) | Tree-of-Thought (ToT) | ReAct |
|---|---|---|---|
| 推論の形状 | 線形(単一経路) | 分岐(複数経路→最適選択) | ツールループ付き線形 |
| コアアクション | "ステップバイステップで考える" | "3アプローチを探索、評価、選択" | "Reason→Act→Observe→繰り返す" |
| 外部ツール? | いいえ | いいえ(内部のみ) | はい — 検索、API、コード実行 |
| トークンコスト | ~1.5-2倍 | ~2-5倍 | 可変(ツール呼び出し数に依存) |
| 最適な用途 | 数学、ロジック、説明 | 戦略、計画、創造的アイデア | 調査、デバッグ、データ分析 |
| 2026年モデルサポート | すべてのモデル | reasoning モデル最適(Opus 4.7、o3) | すべての frontier モデルに組み込み |
| 手動フォーマット必須? | はい(non-reasoning) | はい(明示的フォーマット助けになる) | いいえ(native tool use)、open-weights 除く |
Tree-of-Thoughtプロンプトの書き方
効果的な ToT プロンプトを構築するには以下のステップに従ってください:
- 1問題を述べ、ブランチ数を指定:「問題 に対して正確に 3 つのアプローチを生成してください」
- 2選択前に評価基準を定義:「実行可能性/コスト/リスク/時間 に基づいて比較してください」
- 3モデルに各ブランチを評価・スコアリングさせる
- 4選択指示を追加:「基準 のバランスを最もよく取る方法を選択してください」
- 5選択ブランチの完全な推論で作業を完了
ReActプロンプトの書き方
Reason-Act-Observe ループのテンプレート:
Native tool use を持つ frontier モデルでは、このフォーマットは内部で処理されます。モデルはツール呼び出しタイミングを決定し、結果を受け取り、推論を継続します — 手動フォーマット不要。
Reasoning: 最初に何をすべきですか?
Action: [特定のツール呼び出しまたは明示的ステップ]
Observation: [アクションの結果]
Reasoning: これは何を示していますか?
Action: [次のステップ]
...
Final Answer: [総合結論]2026年のReAct:プロンプティングパターンから組み込み動作へ
「元々の ReAct 論文 (2023)」は手動の Thought/Action/Observation フォーマットをプロンプティングパターンとして提案しました。2026年、GPT-4o、Claude Opus 4.7/Sonnet 4.6、Gemini 3.1 Pro は Function Calling / native tools を通じて ReAct ループを自動実装します。
モデルはツール呼び出しタイミングを決定し、結果を受け取り、推論を継続します — 手動フォーマット不要。利用可能なツールを定義するだけ;モデルが ループを管理します。
手動フォーマットが依然有用な場合:
1. Open-weights モデル native tool use なし (Mistral、古い LLaMA 亜種、Qwen)
2. 教育/デバッグコンテキスト 完全なトレースを見たい場合
3. シミュレートツール相互作用 実際の API 接続なし
本番 ReAct: 自律 AIコーディングツール (Claude Code、OpenAI Codex、Cursor) は大規模な productionized ReAct で、「アクション」= ファイル編集とテスト実行です。
⚠️ Warning
Tree-of-Thought プロンプトは標準プロンプトの 3-5倍の出力トークンを生成できます。¥0.025/1M出力トークン (Claude Opus 4.7)、5,000トークン生成する複雑な ToT は実行あたり約¥0.125 かかります。高容量使用に予算を立ててください。
エージェントシステムにおけるTree-of-ThoughtとReAct
Claude Code / OpenAI Codex : Productionized ReAct (reasoning→コード書き→実行→エラー観察→修正→反復)
調査エージェント (Perplexity、Deep Research):質問定式化→検索→読む→統合→再検索
Claude Managed Agents (2026): 完全管理 ReAct、セキュアサンドボックス、統合ツール付き
エージェント計画: いくつかのフレームワークは計画ステージで ToT を使用 — 複数アプローチ提案、実行可能性評価、ReAct での最適実行
MCP (Model Context Protocol): ツール接続を標準化し、ReAct スタイルループをプラグ・アンド・プレイにします
プロンプト例
❌ 曖昧
SaaS製品のマーケティング戦略を提案してください。
✅ 構造化 Tree-of-Thought
当社の SaaS 製品向けに正確に 3 つのマーケティング戦略を生成してください。各戦略を以下で比較:コスト、到達範囲、実装時間、予想コンバージョン率。各戦略を評価、スコア付け、最適を選択してください。
❌ 構造化なし
GPU RTX 5090 のパフォーマンスを調査してください。
✅ 明示的観察付き ReAct
Reasoning: RTX 5090 ベンチマークのソースはどれか? Action: 2026年GPU比較のウェブ検索を実行。Observation: [ベンチマーク結果]. Reasoning: 重要ポイントは? Action: レイテンシと電力消費を抽出。最終答:[統合]
❌ 反復的でない
コードを修正してください。
✅ デバッグ用 ReAct 反復
Reasoning: エラーは何か? Action: コード実行、出力表示。Observation: [エラー:KeyError line 42]。Reasoning: キーが見つからない、キー存在チェックを追加。Action: コード更新。Observation: [エラーなし、正常出力]。最終答:修正コード、説明付き。
トークンコスト
ToT:ベースラインの 2-5倍の出力トークン、モデルが複数ブランチ生成後選択するため。
ReAct:ツール呼び出し数で可変(各 action/observation ラウンドはトークン追加)。
コスト例(Claude Opus 4.7 で ¥0.025/1M出力トークン):5,000トークン生成の複雑な ToT = 実行あたり約 ¥0.125。
高容量に向けて:ToT を戦略的決定で選別的に使用;日常タスクは線形 CoT を優先。
始める方法
- 1戦略・計画向け → 明示的ブランチ数と評価基準付き ToT を使用
- 2ツール付き調査・デバッグ向け → ReAct を使用(または frontier モデルでネイティブツール使用)
- 3組み合わせ:計画ステージで ToT、選択ブランチ内実行で ReAct
- 4PromptQuorum で両パターンを GPT-4o、Claude Opus 4.7、Gemini 3.1 Pro で並べてテスト
PromptQuorum で
ToT と ReAct パターンを GPT-4o、Claude Opus 4.7/Sonnet 4.6、Gemini 3.1 Pro で並べてテスト。トークンコスト、出力品質、レイテンシを測定。複数 API にデータ露出なし。
関連資料
よくある質問
Tree-of-Thoughtプロンプティングとは何ですか?
Tree-of-Thoughtは、モデルに複数の推論経路(決定木のブランチのような)を探索させ、それぞれを評価してから最良の経路を選択して最終回答を提供するよう指示します。線形の CoT と異なり、ToT は明示的に複数の選択肢を作成し比較します。
ReActプロンプティングとは何ですか?
ReAct (Reason + Act) はプロンプティングフレームワークで、モデルが推論ステップと「アクション」(ツール呼び出し、検索、ルックアップ)を交互に実行します。各アクション後、モデルは結果を観察して推論を更新します。このパターンは現代的 AIエージェントの基礎です。
Tree-of-ThoughtはChain-of-Thoughtと どう違いますか?
Chain-of-Thoughtは単一線形経路に従います。Tree-of-Thoughtは複数経路に分岐、評価、最適を選択します。CoT を 1本道を歩く vs ToT を フォーク探索後に進路選択、と考えてください。
2026年でもReActを手動でフォーマットする必要がありますか?
Native tool use 付き frontier モデル (GPT-4o、Claude Opus 4.7、Gemini 3.1 Pro) では不要です。これらはループを自動実装します。手動 `Thought:/Action:/Observation:` フォーマットは open-weights モデルや教育・シミュレーション目的で有用です。
Tree-of-ThoughtとReActを組み合わせられますか?
はい。戦略レベルで ToT を使用して複数高層アプローチを探索・比較し、選択したブランチ内で ReAct をツール相互作用や データルックアップが必要なステップに使用。複雑な計画タスクで一般的です。
どのモデルがTree-of-Thoughtに最適ですか?
Extended Thinking / Reasoning モード付きモデルが ToT を最も自然に処理:Claude Opus 4.7 (extended thinking)、GPT-4o (reasoning mode)、Gemini 3.1 Pro (Deep Think)。これらは明示的なプロンプトレベル ToT なしで内部的に複数ブランチを探索できます。
ReActの実践的な応用は何ですか?
現代的 AIエージェントはすべて ReAct ループ:Claude Code (コード推論→編集→テスト実行→観察→反復)、Research Assistant (質問推論→Web検索→結果読む→統合)、Customer Support Bot (リクエスト推論→知識ベース照会→回答設計→検証)。パターンは単純ルックアップから数時間の自律セッションまでスケール。
Tree-of-Thoughtはトークンコストにどう影響しますか?
ToT は線形 CoT より大幅に多くのトークンを使用、モデルが複数ブランチ生成後選択するため。標準 CoT プロンプトの出力トークンの 2–5倍を計画。¥0.025/1M (Claude Opus 4.7)、5,000トークン生成の複雑 ToT = 実行あたり約 ¥0.125。高容量使用に予算を立ててください。
Tree-of-ThoughtとReActを本番環境で使用できますか?
はい。ReAct は本番 AIエージェント (Claude Code、OpenAI Codex) の基本パターン。Tree-of-Thought は複雑な戦略的決定で使用。追加トークンコストに予算を立て、本番ケースで モデル動作をテストしてください。
日本のエンタープライズ AI 展開で、METI 準拠はどのようになっていますか?
日本の METI AI ガバナンス 2024 ガイドラインでは、Tree-of-Thought と ReAct は説明可能性(透明推論)と信頼性(反復検証)要件を満たします。地域展開時の監査サポートを設計してください。
ソース
- Yao, S., Yu, D., Zhao, J., et al. (2023). "Tree of Thoughts: Deliberate Problem Solving with Large Language Models." NeurIPS 2023. arXiv:2305.10601
- Yao, S., Zhao, J., Yu, D., et al. (2023). "ReAct: Synergizing Reasoning and Acting in Language Models." ICLR 2023. arXiv:2210.03629
- Wei, J., Wang, X., Schuurmans, D., et al. (2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models." NeurIPS 2022. arXiv:2201.11903
- Shinn, N., Cassirer, A., Goyal, A., et al. (2023). "Reflexion: Language Agents with Verbal Reinforcement Learning." arXiv:2303.11366
- Anthropic. (2026). "Tool Use — Claude API Documentation." Retrieved from https://docs.anthropic.com
- OpenAI. (2026). "Function Calling — Responses API." Retrieved from https://platform.openai.com/docs