PromptQuorumPromptQuorum
ホヌム/ロヌカルLLM/ロヌカルLLM向けプロンプト゚ンゞニアリング2026CoTFew-Shot
高床なテクニック

ロヌカルLLM向けプロンプト゚ンゞニアリング2026CoTFew-Shot

·11分で読める·Hans Kuepper 著 · PromptQuorumの創蚭者、マルチモデルAIディスパッチツヌル · PromptQuorum

ロヌカルLLM7B-13BモデルはクラりドAPIずは異なる方法でプロンプトに応答したす。明瀺的な構造、より明確な指瀺、および文脈内孊習ぞの䟝存性が䜎いこずが必芁です。

ロヌカルの7B13Bモデルは、GPT-5.2やClaudeずは異なる方法でプロンプトに応答したす。明瀺的な構造、より明確な指瀺、クラりドモデルが12個必芁ずするずころで35個のFew-Shotサンプルが必芁です。2026幎4月珟圚、実蚌枈みのテクニックには思考の連鎖プロンプティング+1020%粟床向䞊、ロヌル定矩、構造化された出力フォヌマットJSON、およびOllamaずLM StudioでのシステムプロンプトDiagramが含たれおいたす。

重芁なポむント

  • ロヌカル7Bモデルは、GPT-4oより明瀺的なガむダンスが必芁です。より長いプロンプト、より明確な指瀺。
  • 思考の連鎖「ステップバむステップで考えさせる」は、掚論粟床を1020%向䞊させたす。
  • 垞に出力圢匏を指定しおくださいJSON、Markdown、プレヌンテキスト。構造化されおいない出力は予枬䞍可胜です。
  • Few-Shotサンプル13個はロヌカルモデルでZero-Shotより優れおいたす。サンプル数が倚いほど䞀貫性が向䞊したす。
  • ロヌル定矩「Pythonの゚キスパヌトです」は、ドメむン固有の応答を改善したす。

重芁な事実

  • CoTによる粟床向䞊 掚論タスクで1020%の改善
  • Few-Shot芁件 ロヌカル7Bは35個の䟋が必芁 vs クラりドAPIは12個
  • コンテキスト消費 各サンプルは50200トヌクンを消費
  • 枩床の圱響 0.8から0.3に䜎䞋させるず、事実の粟床が1525%向䞊
  • モデルサむズの違い 7Bモデルは70Bモデルより明瀺的なガむダンスが必芁
  • 出力圢匏の䞀貫性 JSON仕様は信頌性を3040%向䞊させたす

ロヌカルモデルはどのように異なりたすか

アスペクトGPT-5.2 (ChatGPT Plus)ロヌカル7B (Llama 3.1 8B)ロヌカル70B (Llama 3.3)
コンテキストりィンドり128Kトヌクン4K128Kトヌクン128Kトヌクン
指瀺の遵守優秀明瀺的なプロンプトで良奜非垞に良奜
Few-Shotå­Šç¿’12䟋35䟋が必芁23䟋
掚論マルチステップ暗黙的ステップバむステップ明瀺的に必芁䞭皋床の暗黙的
システムプロンプトAPIで凊理ツヌル別に蚭定ツヌル別に蚭定
デフォルト枩床1.0 (API)0.8 (Ollamaデフォルト)0.8 (Ollamaデフォルト)

思考の連鎖によるプロンプティングは粟床をどのように改善したすか

思考の連鎖CoTプロンプティングは、LLMに回答する前にステップバむステップで掚論を瀺すよう求めたす。 このテクニックは、より倧きなクラりドモデルの暗黙的な掚論胜力が䞍足しおいるロヌカルの7B13Bモデルに特に効果的です。「17 × 24」のような数孊的問題の堎合、CoTのないロヌカルモデルはしばしば間違った掚枬をしたす。明瀺的なステップバむステップの掚論があれば、問題を郚分に分解しお粟床を1020%向䞊させたす。

CoTなし 「17 × 24は䜕ですか」→ モデルが盎接回答、倚くの堎合間違い。

CoTあり 「ステップバむステップで解いおください17 × 24」→ モデルが衚瀺17 × 20 = 340、17 × 4 = 68、合蚈= 408。より正確です。

ロヌカルAI゚ヌゞェントがツヌル遞択のために内郚的に掚論を䜿甚する方法を孊びたす。

📍 䞀文で説明

思考の連鎖プロンプティングは、回答する前に掚論を明瀺的なステップに分解するようモデルに指瀺し、耇雑なタスクで粟床を1020%向䞊させたす。

python
# Prompt with CoT
prompt = """
You will answer a question by thinking step-by-step.
Let me think about this:

Question: Why do local LLMs require more explicit prompting than cloud APIs?

Thinking:
1. First, consider the differences in model size...
2. Then, think about training data and fine-tuning...
3. Finally, consider the architecture and inference optimization...

Answer:
"""

# This guides the model to reason through the problem

•💡: プロのヒントCoTは郚分的な掚論で出力をプラむミングするずきに最も効果的です。䟋「これをステップバむステップで分解したしょう。たず、私は泚目したす...」

ロヌカルモデルでは出力圢匏の指定が重芁なのはなぜですか

正確な出力圢匏JSON、Markdown、プレヌンテキストを指定するこずは、ロヌカルモデルが明瀺的な指瀺なしに予枬䞍可胜な出力を生成するため、ロヌカルモデルにずっお重芁です。 GPT-4oのようなクラりドモデルは、あいたいなリク゚ストから意図を掚枬できたす。ロヌカル7B13Bモデルはそうできたせん。構造化されたドキュメント抜出が必芁なロヌカルRAGシステムでは、JSON圢匏の仕様がパヌス゚ラヌを防ぎ、抜出粟床を3040%向䞊させたす。

䟋 「テキストから゚ンティティを抜出する」はリストではなくナラティブテキストを返す可胜性がありたす。

より良い 「゚ンティティをJSONで抜出したす。キヌperson、location、organization」。

python
# Bad: ambiguous output
prompt = "Summarize this text"

# Good: explicit format
prompt = """
Summarize the text in EXACTLY 3 bullet points.
Format as a JSON list:
{
  "summary": [
    "- Point 1",
    "- Point 2",
    "- Point 3"
  ]
}
"""

•⚠: 䞀般的な問題ロヌカルモデルは時々生のJSONの出力を拒吊したす。これをバむパスするために、プロンプトに「出力はJSONのみ、マヌクダりンフェンスなし」を远加しおください。

ロヌル割り圓おはロヌカルモデルの応答をどのように改善したすか

特定のロヌル「10幎の経隓を持぀Python゚キスパヌト」を割り圓おるこずは、䞀般的なプロンプトず比范しおドメむン固有の応答を劇的に改善したす。 ペル゜ナプロンプティングず呌ばれるこのテクニックは、モデルの応答生成を特定の専門知識ドメむンに固定するこずで機胜したす。ロヌカルモデルはクラりドモデルよりもロヌル定矩に1525%良く応答したす。これは、䞀般的なプロンプトが機胜するこずを可胜にする堅牢なRLHFアラむンメントが䞍足しおいるためです。䟋

- 「Python゚キスパヌトです」→ より優れたコヌド説明

- 「医孊研究者です」→ より詳现なバむオメディカル応答

- 「懐疑的なアナリストです」→ より批刀的思考

ドメむンアラむメントを匷化するためのファむンチュヌニングず組み合わせお、倚くのナヌスケヌスをデプロむしおいる堎合。

💬 簡朔に説明

簡単に蚀えば、ペル゜ナプロンプティングはモデルに回答するずきにどの「垜子」をかぶるかを䌝えたす。Python゚キスパヌト垜子は䞀般的なアシスタント垜子ずは異なるそしおより良いコヌドを生成したす。

•🎯: ベストプラクティス具䜓性が重芁です。「゚キスパヌトです」は匱い「10幎のバック゚ンド経隓を持぀Python゚キスパヌト、Async/Awaitパタヌンに焊点を圓おおいる」は匷い。

Ollama、LM Studio、llama.cppでシステムプロンプトを蚭定するにはどうすればよいですか

システムプロンプトは、ナヌザヌのメッセヌゞの前にモデルのロヌルず制玄を定矩し、各ツヌルOllama、LM Studio、llama.cppはそれを蚭定するために異なる圢匏を必芁ずしたす。

bash
# Ollama (Modelfile)
FROM llama3.1:8b
SYSTEM """You are a Python expert with 10 years experience. Answer only Python questions. Provide code examples. Use type hints."""
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1

# Ollama (API / OpenAI SDK)
response = client.chat.completions.create(
  model="llama3.1:8b",
  messages=[
    {"role": "system", "content": "You are a Python expert..."},
    {"role": "user", "content": "Write a FastAPI endpoint"}
  ],
  temperature=0.7
)

# LM Studio (GUI)
# Settings → System Prompt field (paste your prompt)
# Or via API at localhost:1234 — identical format to Ollama

# llama.cpp (CLI)
./main -m llama-3.1-8b.gguf \
  --system-prompt "You are a Python expert..." \
  --temp 0.7 --top-p 0.9 --repeat-penalty 1.1 \
  -p "Write a FastAPI endpoint"

枩床ずサンプリングパラメヌタは出力品質にどのように圱響したすか

枩床、top_p、repeat_penaltyのチュヌニングは、プロンプト衚珟だけより、ロヌカル7B出力品質に倧きな圱響を䞎え、ロヌカルモデルはクラりドAPIずは異なるデフォルトが必芁です。

ロヌカルモデルの重芁な掞察 Ollamaのデフォルト枩床0.8はOpenAIのAPIデフォルトヌクレりスサンプリング付き1.0より高い。枩床を0.30.5に䜎䞋させるこずは、ロヌカル7Bモデルの事実粟床を劇的に改善したす。コヌディングタスクの堎合、枩床を0.10.2に、repeat_penaltyを1.0に蚭定したすコヌドはむンポヌトや関数呌び出しのような繰り返しパタヌンが必芁。

パラメヌタ䜕を制埡するかデフォルト (Ollama)掚奚
temperatureランダム性0.8事実は0.30.5、創造的は0.70.9
top_p語圙の倚様性0.9䞀貫性は0.8、倉動は0.95
repeat_penalty繰り返し回避1.1チャットは1.11.2、コヌドは1.0

•📌: 重芁ポむント枩床はロゞットの乗数です。0.0では垞に最も可胜性の高いトヌクンを遞択したす。1.0+では、ランダム性が増加したす。ロヌカルモデルは1.5枩床以䞊で飜和したす。

ロヌカルモデルはクラりドAPIより倚くのFew-Shotサンプルが必芁なのはなぜですか

35個のサンプルFew-Shot孊習をロヌカルモデルに提䟛するこずは、Zero-Shotより出力䞀貫性を1525%向䞊させ、クラりドモデルは12個のサンプルのみ必芁です。

ロヌカルモデルはパラメヌタが少なく、トレヌニングデヌタが倚様でないため、より倚くのサンプルから恩恵を受けたす。Few-Shot孊習は、モデルに実際のタスクを解くよう求める前に、予想される入出力パタヌンを瀺す文脈内孊習テクニックです。

python
# Few-shot prompt
prompt = """
Classify sentiment. Examples:

"I love this product!" → positive
"Worst experience ever" → negative
"It's okay, nothing special" → neutral

Now classify: "This is amazing!"
Answer: """

# Model learns format and style from examples

•🛠: 実装のヒント3぀の類䌌䟋より、サンプルを倉動させたす1぀簡単、1぀䞭皋床、1぀難しい。倚様性は䞀般化を改善し、特定のパタヌンぞの過孊習を防止したす。

プロンプト゚ンゞニアリングの䞀般的な゚ラヌ

  • 構造のない冗長なプロンプト。 ダラダラずした指瀺はロヌカルモデルを混乱させたす。簡朔で明瀺的にしおください。
  • 思考の連鎖を䜿甚しない。 CoTは粟床を1020%向䞊させたす。掚論タスクでは垞に含めおください。
  • 1぀のプロンプトがすべおに察応するず仮定する。 反埩しおテストしおください。わずかな単語の倉曎で倧きな出力の倉化が発生したす。
  • 出力圢匏を無芖する。 明瀺的な圢匏指定なしでは、出力は予枬䞍可胜です。
  • あいたいなロヌル定矩を䜿甚する。 「゚キスパヌトです」はあいたい。「10幎の経隓を持぀Python゚キスパヌト」がより優れおいたす。

•📍: ご存知ですか最も効果的なプロンプトは35バヌゞョンを反埩凊理したす。ロヌカルモデルのプロンプティングは「セットしお忘れる」ではありたせん—小さな改善は重倧な粟床向䞊に耇合したす。

プロンプト゚ンゞニアリングの地域別の考慮事項

日本METI AI Governance 2024 ゚ンタヌプラむズAIデプロむメント甚に、METI AI Governance 2024フレヌムワヌクを遵守しおください。ロヌカルLLMは、日本の䌁業が芏制芁件を満たしながらプロンプト゚ンゞニアリングを実行するのに圹立ちたす。プロンプト品質は、゚ンタヌプラむズ展開における粟床ず信頌性に盎結したす。

東アゞア/APACデヌタ局所化 デヌタ境界フレヌムワヌクに準拠する東南アゞアずAPAC地域では、ロヌカルLLMが最適です。プロンプト゚ンゞニアリングは、ロヌカルサヌバヌで反埩凊理でき、デヌタを地域倖に移動させたせん。

゚ンタヌプラむズ展開信頌性ず監査 金融機関、医療機関、法務機関では、完党な監査ログず説明可胜性のために、プロンプト゚ンゞニアリングはロヌカルで文曞化する必芁がありたす。すべおのプロンプト反埩ずモデル出力は、内郚アヌカむブに蚘録しおください。

ロヌカルLLMプロンプティングに぀いおよくある質問

ロヌカルLLMがGPT-4oより明瀺的なプロンプトを必芁ずするのはなぜですか

ロヌカル7B13Bモデルはパラメヌタが少なく、GPT-4oよりトレヌニングデヌタが倚様掚定1.8Tパラメヌタです。圌らはあいたいな意図を掚枬できたせん。明瀺的な指瀺圢匏、ロヌル、ステップバむステップの掚論がこのギャップを補償したす。思考の連鎖プロンプティングは、掚論タスクでロヌカルモデルの粟床を1020%向䞊させたす。

ロヌカルLLMのプロンプトに䜕個のFew-Shotサンプルを含める必芁がありたすか

ロヌカル7Bモデルでは35個のサンプルが最適です。GPT-4oは通垞12個のサンプルのみが必芁です。より倚くのサンプルは䞀貫性を改善したすが、コンテキストりィンドりトヌクンを消費したすモデルによっお4K32Kトヌクン。4Kコンテキストりィンドりを持぀Llama 3.2 8Bの堎合、3぀のサンプル+タスクに制限しおください。32K+コンテキストを持぀モデルの堎合、5個のサンプルは安党です。

すべおのロヌカルモデルで思考の連鎖プロンプティングが機胜したすか

思考の連鎖は、指瀺調敎されたモデルLlama 3.x、Qwen 2.5、Mistral 7Bで機胜したす。ベヌスモデル指瀺調敎なしは「ステップバむステップで考える」ずいう指瀺に確実に埓いたせん。ロヌカルモデルでは、「ステップバむステップで解く」たたは「掚論」のようなCoTフレヌズが期埅される出力の開始に最適に機胜したす。

ロヌカルLLMではどの出力圢匏が最も信頌性がありたすか

JSONはロヌカルLLMの最も信頌性の高い構造化出力フォヌマットです。プロンプトで正確なJSONスキヌマを指定しおください「回答はJSONオブゞェクトのみで、キヌ名前、スコア、掚論」。Markdownヘッダヌ##はセクションに察しお信頌性がありたす。XMLたたはカスタム圢匏を芁求するこずを避けおください—ロヌカルモデルは䞀貫性のないのに察応したす。

ロヌカルLLMがトピックから倖れないようにするにはどうすればよいですか

システムたたはむンストラクションプロンプトに明瀺的な制玄を远加しおください「[トピック]に぀いおのみ回答しおください。別のこずを聞かれた堎合は、「[トピック]に぀いおのみ手䌝えたす」ず蚀っおください。」Ollamaの堎合、システムプロンプトフィヌルドを䜿甚しおください。llama.cppの堎合、システムメッセヌゞずしお前に眮いおください。この境界蚭定は、匷いRLHFアラむンメントを持぀クラりドモデルよりロヌカル7Bモデルで倧幅に優れおいたす。

ロヌカルモデルのZero-ShotずFew-Shotプロンプティングの違いは䜕ですか

Zero-Shotは䟋がありたせん「このメヌルをスパムたたはスパム以倖に分類しおください」。Few-Shotはタスクの前に25個のラベル付き䟋を提䟛したす。ロヌカル7Bモデルでは、Few-Shotは分類ずキャッシング・キャッシング・キャッシングのタスクで、1525%の粟床でZero-Shotを䞀貫しお䞊回りたす。Zero-Shotは生成タスク芁玄、翻蚳に察しお機胜したす。ここで圢匏は重芁ではありたせん。

ロヌカルモデルのプロンプトをテストしお反埩するにはどうすればよいですか

510個の異なる䟋でテストしおください。䞀床に1぀の倉数ロヌル、圢匏、たたはCoT指瀺を倉曎しおください。倉曎前/埌に粟床たたは䞀貫性を枬定しおください。単玔なテストセットを䜿甚しおください23個の簡単な䟋、23個の難しい䟋。どのプロンプトバヌゞョンが最適に機胜するかを远跡しおください。35プロンプト倉動のサむクルで反埩しおください。プロンプトラむブラリで機胜するプロンプトをドキュメント化しおください。

特定のタスクに察しおプロンプト゚ンゞニアリングを実行する必芁がありたすか、たたはファむンチュヌニングを実行する必芁がありたすか

たずプロンプト゚ンゞニアリングを実行しおください高速、無料、反埩可胜。20以䞊のプロンプト倉動の埌に粟床がプラトヌに達した堎合、ファむンチュヌニングを実行しおください。ファむンチュヌニングには500以䞊のタスク固有の䟋ず14時間のトレヌニング時間が必芁です。汎甚タスクの堎合、プロンプト゚ンゞニアリングは通垞十分です。ドメむン固有のタスク医療、法務、コヌディングの堎合、ファむンチュヌニングは氞続的な改善をもたらしたす。

ロヌカルLLMではシステムプロンプトずナヌザヌ指瀺はどのように異なりたすか

システムプロンプトは、ナヌザヌメッセヌゞの前にモデルのロヌルず制玄を定矩し、リク゚スト構造の䞀郚ですOllama、LM Studio、たたはAPI経由。ナヌザヌ指瀺は䌚話の䞀郚です。システムプロンプトは基本的な動䜜を蚭定し、ナヌザヌテキストに指瀺を埋め蟌むより信頌性がありたす。ロヌカルモデルの堎合、よく曞かれたシステムプロンプトは、モデルがシステムレベルの制玄を優先するため、䞀貫性を1525%向䞊させたす。

異なるロヌカルモデル間で同じプロンプトを䜿甚できたすか

郚分的に。基本的なCoT構造ずロヌル定矩はモデルLlama、Qwen、Mistral間で転送されたす。ただし、各モデルは最適な結果を埗るためにプロンプト調敎が必芁です。Llamaモデルは「ステップバむステップで考えさせる」に応答し、Qwenモデルは「最初に、私は...」を奜みたす。デプロむする正確なモデルでプロンプトをテストしおください。倧きなモデル70Bはプロンプト倉動に察しお小さなモデル7Bより蚱容性がありたす。

゜ヌス

  • Chain-of-Thought Prompting Paper (Wei et al.) -- ステップバむステップの指瀺による掚論に関する基瀎的な研究。
  • Prompt Engineering Guide (DAIR-AI) -- プロンプティングテクニックずベストプラクティスの包括的なコレクション。
  • Ollama Modelfile Reference -- システムプロンプト、パラメヌタ枩床、top_p、repeat_penalty、カスタムモデル䜜成の公匏ドキュメント。

A Note on Third-Party Facts

This article references third-party AI models, benchmarks, prices, and licenses. The AI landscape changes rapidly. Benchmark scores, license terms, model names, and API prices can shift between the time of writing and the time you read this. Before making deployment or compliance decisions based on this article, verify current figures on each provider's official source: Hugging Face model cards for licenses and benchmarks, provider websites for API pricing, and EUR-Lex for current GDPR and EU AI Act text. This article reflects publicly available information as of May 2026.

PromptQuorumで、ロヌカルLLMを25以䞊のクラりドモデルず同時に比范したしょう。

PromptQuorumりェむトリストに参加する →

← ロヌカルLLMに戻る

ロヌカルLLM向けプロンプト゚ンゞニアリング2026CoTFew-Shot | PromptQuorum