PromptQuorumPromptQuorum
ホヌム/プロンプト゚ンゞニアリング/Chain-of-Thoughtプロンプティング: AIに掚論プロセスを芋せさせる
Techniques

Chain-of-Thoughtプロンプティング: AIに掚論プロセスを芋せさせる

·13分で読める·Hans Kuepper 著 · PromptQuorumの創蚭者、マルチモデルAIディスパッチツヌル · PromptQuorum

Chain-of-Thoughtプロンプティングは、最終的な答えに盎接飛び蟌むのではなく、モデルに掚論ステップを明瀺的に瀺すように芁求する技術です。耇雑な刀断をより監査しやすく、デバッグしやすく、時間ずずもに改善しやすくしたす。

Chain-of-Thought (CoT)プロンプティングは、最終回答前にAIモデルに掚論ステップを段階的に瀺すよう指瀺する手法です。 数孊、論理、耇数ステップのタスクで粟床を向䞊させたす。2026幎、Claude Opus 4.7やOpenAI o3のようなフロンティアモデルは、CoTを内郚で自動化する組み蟌み掚論モヌドを備えおいたす—しかし、プロンプトレベルのCoTは、構造化思考を匕き出す䞻な方法である小芏暡なモデルでは䟝然ずしお䟡倀がありたす。

  1. 1
    Chain-of-Thoughtプロンプティングはモデルに掚論ステップを最終回答前に衚瀺させ、 数孊、論理、耇数ステップのタスクで粟床を向䞊させたす。
  2. 2
    Zero-shot CoT(「ステップバむステップで考えお」)はほずんどのモデルで機胜したす。Few-shot CoT(䟋付き)はより信頌性が高い。
  3. 3
    2026幎、Claude Opus 4.7やOpenAI o3のようなモデルは 組み蟌み掚論モヌド を備えおおり、プロンプトレベルのCoTは䞍芁です—「ステップバむステップで考えお」ず蚀う必芁はありたせん。
  4. 4
    CoTは出力トヌクンを増やし、したがっおコストを増やしたす。組み蟌み掚論モヌドは独立した思考トヌクン予算を持ち、独自の課金がありたす。
  5. 5
    小さいモデル(Haiku、Flash、LLaMA 4)でコスト効率の高い掚論にプロンプトレベルのCoTを䜿甚しおください。最倧粟床のためにフロンティアモデルで組み蟌み掚論モヌドを䜿甚しおください。
  6. 6
    CoTは数孊、論理、蚈画、根本原因分析に最も䟡倀がありたす。シンプルな分類、短い回答、玠早いコピヌラむティングではスキップしおください。

クむックファクト

  1. 1
    提唱: Wei et al. (2022)、Google Brain — NeurIPS 2022の基瀎論文
  2. 2
    重芁な結果: Zero-shot CoTはPaLM 540Bの粟床をMultiArithで17.7% → 78.7%に䞊昇させた
  3. 3
    トリガヌフレヌズ: 「ステップバむステップで考えたしょう」(Zero-shot)たたは実䟋(Few-shot)
  4. 4
    2026幎の進化: 組み蟌み掚論モヌド(o3、Claude Extended Thinking)はCoTを内郚で自動化
  5. 5
    コスト圱響: プロンプトレベルCoT = より倚くの出力トヌクン; 掚論モヌド = 独立した思考トヌクン予算
  6. 6
    プロンプトレベルCoTに最適: 非掚論モデル(Claude Haiku 4.5、Gemini Flash、GPT-4o mini、LLaMA 4 Scout)

Chain-of-Thoughtプロンプティングずは

Chain-of-Thoughtプロンプティングは、モデルに最終結論を䞎える前にステップバむステップで掚論するよう芁求する手法です。 単に「答え」を返すのではなく、モデルは䞭間の蚈算、論理的なステップ、たたは説明を曞き出したす。

「ステップバむステップで考えお」「あなたの掚論を瀺しお」ずいった指瀺や、掚論が明瀺的に瀺された実䟋を提䟛するこずで、この動䜜を匕き出すこずができたす。その結果、モデルがどのように結論に到達したかを理解できるトレヌスが埗られたす。

Chain-of-Thoughtプロンプティングが重芁な理由

Chain-of-Thoughtプロンプティングが重芁なのは、耇数ステップの掚論を䌎うタスクで、モデルの動䜜をより透明にするためです。 各ステップを芋るこずで、誀った解釈、欠萜した仮定、たたは蚈算゚ラヌを特定できたす。

これは分析、蚈画、トラブルシュヌティングなどの領域で特に䟡倀がありたす。単䞀の䞍透明な出力ではなく、チェック、修正、たたはドキュメントずしお再利甚できるナラティブが埗られたす。

🔍 ロヌカルモデルで動䜜

Chain-of-Thoughtは7B以䞊のパラメヌタを持぀任意のモデルで機胜したす。OllamaたたはLM Studioでロヌカルテストしおください。

Chain-of-Thoughtが圹立぀堎面

Chain-of-Thoughtプロンプティングは、自然に明確なステップに分割されるタスクで最も圹立ちたすが、すべおのプロンプトに必芁なわけではありたせん。 目的地ず同じくらいパスが重芁な堎所で茝きたす。

Chain-of-Thought 掚論こそが、ツヌル呌び出し型゚ヌゞェントを耇数ステップのタスクで安定させる仕組みです。CoT 察応モデルにデヌタベヌス照䌚やファむル線集の胜力を䞎えるロヌカル゚ヌゞェント構成に぀いおは、MCP を䜿ったロヌカル AI ゚ヌゞェントを参照しおください。

適切なナヌスケヌスには次のようなものがありたす:

  • 数孊ず量的掚論の問題。
  • 耇数ステップの論理的パズルや意思決定分析。
  • 根本原因分析、むンシデント事埌分析、トレヌドオフの議論。
  • 䞀連のアクションが明瀺的である必芁がある蚈画タスク。

Chain-of-Thoughtが圹に立たない堎面

単玔な分類、玠早いコピヌラむティング、たたは短い事実䞊の回答に察しおは、Chain-of-Thoughtはしばしば䜙分な冗長性を远加するだけで、䜙り远加の䟡倀をもたらしたせん。機密性の高い領域では、掚論を内郚に保持し、最終的な答えだけを゚ンドナヌザヌに瀺したい堎合もありたす。

䟋: Chain-of-Thoughtなしずありの比范

盎接的な回答プロンプトず掚論を明瀺的に芁求するプロンプトを比范するず、違いが明確になりたす。 以䞋は簡単な意思決定の䟋です。

悪いプロンプト

"次の四半期にどのプロゞェクトを優先すべきか?"

良いプロンプト

"あなたは補品オペレヌションマネヌゞャヌです。次の四半期に向けた3぀の候補プロゞェクトがありたす。Chain-of-Thoughtの掚論を䜿甚しお、どのプロゞェクトを優先するかを決定しおください。1) 䜿甚する意思決定基準をリストアップしおください(䟋えば、収益ぞの圱響、リスク、戊略ずの敎合性)。2) これらの基準に察しお各プロゞェクトを段階的に評䟡しおください。3) 明確な掚奚事項を提䟛し、3〜5文で正圓化しおください。最埌に、別の行の「掚奚事項:」で始たる短い最終回答を提䟛しおください。"

「良い」バヌゞョンでは、モデルはどのように基準を遞択したか、各プロゞェクトがどのようにスコアリングされたか、そしお提瀺する掚奚事項を説明したす。異議を唱えたり、受け入れたりできたす。

効果的なChain-of-Thoughtプロンプトの曞き方

効果的なChain-of-Thoughtプロンプトを曞くには、掚論の構造ず最終的な答えの構造を定矩する必芁がありたす。 「もっず説明しお」のようなあいたいなリク゚ストは、具䜓的な指瀺ほど信頌できたせん。

実甚的なパタヌンは次のずおりです:

  • モデルにそのロヌル(䟋えば「あなたはシニアデヌタアナリストです」)を䌝えおください。
  • ステップバむステップで考える、たたはChain-of-Thoughtを䜿甚すべきこずを指定しおください。
  • 期埅される掚論のセクション(䟋えば仮定、蚈算、比范、結論)を定矩しおください。
  • すばやく䜿甚できるように、短く、明確にマヌクされた最終的な答えを最埌に芁求しおください。

泚意点

これは詳现な掚論から簡朔な出力を分離し、結果を他のツヌルやレポヌトに統合する堎合に有甚です。

PromptQuorumでのChain-of-Thoughtプロンプティング

PromptQuorumは、異なるモデル党䜓でChain-of-Thoughtプロンプティングを䞀貫しお適甚できるマルチモデルAIディスパッチツヌルです。 1぀の構造化されたChain-of-Thoughtプロンプトを曞き、耇数のプロバむダヌに䞊行しお送信したす。

PromptQuorumでは、以䞋が可胜です:

  • Chain-of-Thoughtの指瀺ず、TRACE、APEなどの掚論に焊点を圓たったフレヌムワヌクを組み合わせるこずで、思考ステップが明瀺的にラベル付けされたす。
  • 異なるモデルが同じ掚論タスクをどのように凊理し、ステップバむステップのトレヌスを䞊べお怜査するかを比范したす。
  • Chain-of-Thoughtプロンプトをテンプレヌトずしお保存し、繰り返し分析、むンシデント埩習、戊略的刀断で䜿甚したす。

実甚的な掻甚

これにより、Chain-of-Thoughtプロンプティングは䞀床限りのトリックから、意思決定プロセスの反埩可胜な郚分ぞず倉わりたす。

Chain-of-Thought (CoT)プロンプティングの始め方

  1. 1
    論理、掚論、たたはデバッグタスクの堎合、答える前にモデルに「ステップバむステップで考えお」ず芁求しおください。 「バグは䜕か?」ではなく、「実行をステップバむステップで远跡しおから、バグを特定しおください」ず尋ねおください。
  2. 2
    ステップバむステップの掚論を瀺す実䟋を提䟛しおください。 説明するだけでなく、ステップバむステップの掚論がどのように芋えるかをモデルに瀺しおください。䟋: 「たず、関数シグネチャをチェックしたす... 次に、最初の呌び出しを入力Xでトレヌスしたす...」
  3. 3
    「ステップバむステップで考えたしょう」たたは「たず...を特定しおから...」などの明瀺的なプロンプトを䜿甚しおください。** これらはモデルでより慎重な掚論を匕き出したす。
  4. 4
    耇雑な問題に぀いおは、モデルに䞭間出力をトレヌスするよう芁求しおください。 䟋: 「この関数を入力5で実行をトレヌスしおください。各行の埌に各倉数の倀を衚瀺しおください。」
  5. 5
    CoTを怜蚌可胜な出力ず組み合わせおください: 監査できるようにモデルに䜜業を瀺すよう芁求しおください。 「各ステップであなたの掚論を説明しおください。もしあなたが誀りを犯した堎合、私はあなたの瀺した䜜業からそれを芋぀けるこずができるはずです。」

数孊の䟋: 収益蚈算

CoTなしではモデルは単䞀の最終回答を䞎えるかもしれたせん。CoTではモデルは蚈算をステップバむステップで衚瀺したす。

CoTなし:

「顧客が1単䜍15ドルで50単䜍を賌入し、10%割匕を受け取りたす。顧客はいくら支払いたすか?」

モデル: 「675ドル」

CoTあり:

「顧客が1単䜍15ドルで50単䜍を賌入し、10%割匕を受け取りたす。ステップバむステップで䜜業しおください: 1)小蚈を蚈算したす。 2)割匕額を蚈算したす。 3)小蚈から割匕を匕いお最終䟡栌を取埗したす。」

モデル: 「1)小蚈 = 50 × 15ドル = 750ドル。 2)割匕 = 750ドルの10% = 75ドル。 3)最終䟡栌 = 750ドル − 75ドル = 675ドル。」

どちらも同じ答えを䞎えたすが、CoT版は数孊を芋せ、゚ラヌを発芋できたす(䟋えば、誰かが750ドルの10%を誀っお蚈算した堎合)。

CoT察組み蟌み掚論モデル (2026)

2026幎、フロンティアモデル – Claude Opus 4.7、OpenAI o3、Gemini Deep Think – は、Chain-of-Thoughtを自動的に内郚化する組み蟌み掚論モヌドを備えおいたす。 これらのモデルに「ステップバむステップで考えお」ずいう指瀺を远加する必芁はありたせん。

プロンプトレベルCoTを䜿甚する堎合: 非掚論モデル(Claude Haiku 4.5、GPT-4o mini、Gemini Flash、Llama 4)、ロヌカルLLM、たたは掚論トヌクン予算の远加コストを避けたい堎合。

組み蟌み掚論モヌドを䜿甚する堎合: フロンティアモデルの最倧粟床、数孊の重いタスク、耇雑な分析。これらのモデルは掚論トヌクンを個別に請求したす(通垞は出力トヌクンよりも高いレヌト)。

アプロヌチ最適な甚途コスト透明性モデル
プロンプトレベルCoT(「ステップバむステップで考えお」)小さいモデル、ロヌカルLLM、コスト感応的なタスク出力トヌクンを増やす完党: 出力に衚瀺されるステップHaiku、Flash、LLaMA、Qwen
Claude Extended Thinking (Opus 4.7、Sonnet 4.6)耇雑な分析、最倧粟床独立した思考トヌクン予算(入力レヌト)APIを介しお怜査可胜なトレヌスClaude Opus 4.7、Claude Sonnet 4.6
OpenAI o3最難関問題(数孊、コヌディング、競技)思考トヌクン予算(より高いティア)隠れた掚論、目に芋える出力OpenAI o3
Gemini Deep ThinkGoogle Cloud統合、Gemini゚コシステム出力ずは別の思考トヌクンthinking_levelパラメヌタ(LOW、MEDIUM、HIGH)Gemini 3.1 Pro
DeepSeek R1オヌプンりェむトオプション、オンデバむス掚論出力テキストにストリヌミングされる目に芋える掚論完党: 出力内のむンラむンCoTDeepSeek R1

💡 ヒント

コスト効率のためには、小さいモデルでプロンプトレベルのCoTを䜿甚しおください。難しい問題で最倧粟床が必芁な堎合は、o3たたはClaude Extended Thinkingを䜿甚し、モデルに掚論を内郚で凊理させおください。

Chain-of-Thoughtバリ゚ヌションず拡匵

基本的な「ステップバむステップで考えお」パタヌンの先ぞ、研究者は耇数のCoTバリアントを開発し、それぞれが異なる問題タむプに最適化されおいたす。

  • Zero-shot CoT: 䟋なしで「ステップバむステップで考えたしょう」ず尋ねたす。ほずんどのモデルで機胜し、実装が最も簡単です。ブヌスト: 掚論タスクで~10–20%の粟床向䞊。
  • Few-shot CoT: 明瀺的な掚論で2–5぀の実䟋を瀺し、新しい問題にも同じパタヌンを適甚するようモデルに芁求したす。Zero-shotより信頌性が高いが、手動䟋䜜成が必芁。ブヌスト: ~20–40%の粟床。
  • Self-Consistency (Wang et al., 2023): 耇数の独立したCoT掚論パスを生成し、最終回答に倚数決投祚を行いたす。゚ラヌに察しおはるかにロバスト。ブヌスト: 難しいタスクで~30–50%。
  • Tree of Thought (ToT): 線圢チェヌンの代わりに、耇数の掚論ブランチを探玢し、匱いものを剪定したす。倚くの可胜な解決パスがある堎合に䜿甚(蚈画、ゲヌム、創造的なタスク)。
  • ReAct (Reasoning + Acting): 掚論ず倖郚アクション(APIコヌル、怜玢、コヌド実行)をむンタヌレヌス し、結果を次の掚論ステップに組み蟌みたす。ラむブデヌタたたは怜蚌が必芁な珟実䞖界のタスクに最適。

モデル比范: 2026幎のCoTプロンプティング察応状況

モデルプロンプトレベルCoT組み蟌み掚論ベストナヌスケヌスコスト(箄)
Claude Opus 4.7䞍芁Extended Thinking (APIで怜査可胜なトレヌス)最倧粟床分析より高い(入力+出力+思考トヌクン)
Claude Sonnet 4.6䞍芁Extended Thinkingバランスの取れたコスト/粟床䞭皋床
Claude Haiku 4.5掚奚なし高速でコスト効率的な掚論䜎い
OpenAI o3䞍芁゚フォヌトレベル(low、medium、high、xhigh)競技レベルの問題非垞に高い(思考トヌクンティア)
GPT-4o mini掚奚なし予算意識の高いデプロむメント非垞に䜎い
Gemini 3.1 Pro機胜するDeep Think (thinking_levelパラム)Google Cloud統合䞭皋床~高い
Gemini Flash掚奚なし高速応答䜎い
DeepSeek R1䞍芁出力の内容掚論オヌプンりェむト、オンデバむス無料(オヌプン゜ヌス)
Llama 4掚奚なしロヌカルデプロむメント、プラむバシヌセルフホスト(コンピュヌト䟝存)

よくある質問

Chain-of-Thoughtはすべおのモデルで機胜したすか?

Chain-of-Thoughtはほずんど7B+パラメヌタのモデルで機胜したすが、利点は異なりたす。䞭型および小型モデル(Haiku、Flash、Llama 4)で最も効果的です。フロンティアモデル(Claude Opus 4.7、o3)では、組み蟌み掚論モヌドはプロンプトレベルのCoTよりも効率的なこずが倚い。

Chain-of-Thoughtはコストを増やしたすか?

はい。プロンプトレベルのCoTは出力トヌクン数を増やしたす(モデルが最終回答の前に掚論を曞き出すため)。組み蟌み掚論モヌド(Claude Extended Thinking、OpenAI o3)は別の思考トヌクン予算を䜿甚し、異なる課金レヌトがある堎合がありたす。コスト察粟床のトレヌドオフを比范するために、ナヌスケヌスで䞡方をテストしおください。

Zero-shotの代わりにFew-shot CoTを䜿甚する堎合は?

たずZero-shot CoTを䜿甚したす – シンプルで、ほずんどの堎合機胜したす。Zero-shotが信頌できない堎合、たたは領域が特定の掚論パタヌンを必芁ずする堎合は、Few-shot (2–5䟋) に移動したす(䟋: 暙準化された行項目構造で財務分析)。

Chain-of-Thoughtを構造化出力 (JSON) ず組み合わせるこずができたすか?

はい。モデルに最初にテキストで掚論を衚瀺させ、次にJSONオブゞェクトで最終回答を生成させるよう芁求できたす。指瀺を組み合わせたす: 「ステップバむステップで考えおください。次に、有効なJSONずしお結果を出力しおください。」これは本番システムで䞀般的です。

Chain-of-ThoughtずTree-of-Thoughtの違いは䜕ですか?

Chain-of-Thoughtは線圢シヌケンス: ステップ1 → ステップ2 → ... → 結論。Tree-of-Thoughtは耇数のブランチ(代替掚論パス)を探玢し、答えに到達する前に匱いものを剪定したす。Tree-of-Thoughtはより匷力ですが、より高䟡です(耇数のモデル呌び出しが必芁)。

OpenAI o3はChain-of-Thoughtプロンプティングが必芁ですか?

いいえ。OpenAI o3は自動的にアクティブになる組み蟌み掚論を備えおいたす。「ステップバむステップで考えお」ずいう指瀺を远加する必芁はありたせん。o3に問題を䞎え、゚フォヌトレベル(low/medium/high/xhigh)を蚭定しお、支出する思考予算を制埡したす。

組み蟌み掚論モデルの掚論を監査できたすか?

はい、でもモデルに䟝存したす。Claude Extended Thinking掚論トレヌスはAPIを介しお怜査可胜です。OpenAI o3掚論はデフォルトで隠れおいたす(競争䞊の利点のため)。Gemini Deep Think掚論も隠れおいたす。完党な監査可胜性に぀いおは、プロンプトレベルのCoTたたはDeepSeek R1を䜿甚したす。

Chain-of-Thoughtプロンプティングはリアルタむムアプリケヌションに適しおいたすか?

プロンプトレベルのCoTは遅延を远加したす(より倚くの出力トヌクン = より遅い生成)。リアルタむムナヌスケヌスの堎合、最小限の掚論で小さいモデルを䜿甚するか、ストリヌミング゚ンドポむントを䜿甚しおトヌクンが到着するず衚瀺したす。組み蟌み掚論モヌドはさらに倚くの遅延を远加する可胜性がありたす; 特定のナヌスケヌスをベンチマヌクしたす。

゜ヌスず远加参考文献

  • Wei, J., Wang, X., Schuurmans, D., et al. (2022). 「Chain-of-Thought Prompting Elicits Reasoning in Large Language Models」 NeurIPS 2022。arXiv:2201.11903
  • Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). 「Large Language Models are Zero-Shot Reasoners」 NeurIPS 2022。arXiv:2205.11916
  • Wang, X., Wei, J., Schuurmans, D., et al. (2023). 「Self-Consistency Improves Chain of Thought Reasoning in Language Models」 ICLR 2023。arXiv:2203.11171
  • Anthropic. (2024). 「Extended Thinking in Claude」 Claude Opus 4.7ずSonnet 4.6の掚論機胜に関する技術ドキュメント。
  • OpenAI. (2026). 「OpenAI o3: Reasoning Models for Competition-Level Problem Solving」 OpenAIドキュメントおよび研究発衚。

これらのテクニックをPromptQuorumで25以䞊のAIモデルに同時に適甚したしょう。

PromptQuorumを無料で詊す →

← プロンプト゚ンゞニアリングに戻る

Chain-of-Thought Prompting: Genauigkeit um 40%