PromptQuorumPromptQuorum
ホーム/ローカルLLM/2026年最高の創作文章向けローカルLLM: フィクション、詩、長編コンテンツのトップ5モデル
Best Models

2026年最高の創作文章向けローカルLLM: フィクション、詩、長編コンテンツのトップ5モデル

·8分読·Hans Kuepper 著 · PromptQuorumの創設者、マルチモデルAIディスパッチツール · PromptQuorum

2026年の創作文章向けローカルLLM最高モデルは、Meta Llama 3.3 70B(最高の散文品質)、Mistral Small 3.1 24B(16GB RAM以下での最高品質)、Fimbulvetrおよびmidnight-Rose などのコミュニティファインチューニングモデル(フィクション・ロールプレイ専門)です。創作文章の品質は標準ベンチマークではよく測定されません。物語の一貫性、文体の多様性、開放的なプロンプトへの指示遵守を評価する必要があります。

重要なポイント

  • 標準ベンチマーク(MMLU、HumanEval)は創作文章の品質を測定しません。自分のサンプルプロンプトで直接評価してください。
  • 全体で最高の散文: Llama 3.3 70B -- ローカル実行可能スケールで最も自然な英語ナレーティブスタイル。
  • 16GB RAM向けの最高選択肢: Mistral Small 3.1 24B -- 強い創作出力、長編ナレーティングで7Bモデルより明らかに優れています。
  • 8GB RAM向けの最高選択肢: Llama 3.1 8B -- 英語フィクションタスクでQwen2.5 7Bより優れた創作指示遵守。
  • コミュニティファインチューン(Fimbulvetr-11B、Midnight-Rose-70B)は創作フィクション用に特別に訓練されており、長編ナレーティブタスクでベースモデルより優れています。

ローカルLLMの創作文章品質をどう評価するか

客観的ベンチマークは知識と推論を測定しますが、創作品質は測定しません。 創作文章用のモデルを評価するには、使用予定のプロンプトで直接テストしてください。

注意点: 標準ベンチマークではスコアが高くても、実際の創作文章の品質とは無関係な場合があります。必ず実際のテストを行ってください。

  • 散文継続テスト: モデルにシーンの最初の2段落を与えて、500語の継続を要求します。一貫したトーン、キャラクター音声、ナレーティブロジックを保持していますか?
  • スタイル指示テスト: モデルに「レイモンド・カーヴァーのスタイルで」または「スリラー小説のペースで」段落を書くよう要求します。明確にスタイルを変更していますか?
  • 長編一貫性テスト: 特定のツイストエンディングで1000語の短編を要求します。モデルは自然にセットアップを配置し、報酬を提供していますか?
  • 会話テスト: 異なるスピーチパターンを持つ2つのキャラクターを使用してシーンを書きます。各キャラクターは異なって聞こえますか?
創作文章ローカルLLM比較: Llama 3.3 70B(40GB、最高品質)、Mistral 24B(14GB、16GBクラス)、Llama 3.1 8B(6GB、入門クラス)。
創作文章ローカルLLM比較: Llama 3.3 70B(40GB、最高品質)、Mistral 24B(14GB、16GBクラス)、Llama 3.1 8B(6GB、入門クラス)。

#1 Meta Llama 3.3 70B - ローカルで最高の散文品質

Llama 3.3 70Bはローカル実行可能な任意のモデルの中で最も自然で多様な英語散文を生成します。多様な英語テキストコーパスのトレーニングにより、最広範な文体レンジが得られます。

実用的なコツ: 40GBのメモリが必要ですが、M2 Ultraマシンを使用すれば、1秒間に20-35トークンの速度を達成できます。これにより、実時間での創作セッションに最適です。

SpecValue
最適な用途長編フィクション、豊かな散文
RAM必要(Q4_K_M)~40 GB
散文スタイル範囲ローカルモデル中最広
長編一貫性強力(1K~3K語シーン)
Ollama コマンドollama run llama3.3:70b
創作文章品質スペクトラム: 8Bは500語まで、24Bは2K語まで、70Bは1K-3K語シーンを維持し最広スタイル範囲。
創作文章品質スペクトラム: 8Bは500語まで、24Bは2K語まで、70Bは1K-3K語シーンを維持し最広スタイル範囲。

#2 Mistral Small 3.1 24B - 16GB RAM向け最高の創作文章

Mistral Small 3 .1 24Bは、7Bモデルより明らかに優れた創作文章品質を提供しながら、14GB RAMに収まります。詳細なスタイル仕様を処理するのに十分な精度があります。

実用的なコツ: ワークステーションクラスのハードウェアなしで本物の長編ナレーティング機能を望むユーザーにとって、これが最良の選択肢です。

#3 Llama 3.1 8B - 8GB RAM向け最高の創作文章

8GB RAMレベルでは、Llama 3 .1 8BはQwen2.5 7BおよびMistral 7Bを英語創作文章で上回ります。Qwen2.5はコーディングと構造化タスクで強力ですが、英語散文生成はナレーティブ目的で流動性が低くなります。

注意点: 500語以下の短編に適しています。1000語を超えるストーリーでは品質が低下する傾向があります。これは8Bスケールモデルの基本的な制限です。

#4 フィクション・ロールプレイ用コミュニティファインチューン

ローカルLLMコミュニティは、フィクションコーパスでトレーニングされた専門のファインチューンを保持しており、長編ナレーティブタスクでベースモデルを上回ります。 これらはHugging Faceで利用でき、LM StudioまたはOllama(カスタムModelfilesを使用)で読み込むことができます。

実践Tips: Hugging Faceから「creative writing GGUF」を検索して、LM Studioのモデルブラウザに読み込むか、カスタムModelfileで`ollama create`経由で読み込みます。

  • Fimbulvetr-11B - ファンタジーおよびサイエンスフィクション散文の高品質でファインチューン。ベースLlama 3.1 8Bより鮮やかな感覚の詳細と一貫したキャラクター音声を生成します。
  • Midnight-Rose-70B - 創作文章とロールプレイシナリオに焦点を当てたLlama 3.3 70Bファインチューン。ベースモデルより優れた長編ナレーティング一貫性。
  • Noromaid / Openhermes 変種 - 会話型ロールプレイに焦点を当てたコミュニティファインチューン。Fimbulvetrより低い散文品質ですが、キャラクター方向への応答性がより高いです。

ローカルLLMの創作文章を改善するプロンプティングコツ

実践的なテクニック:創作出力の質を大幅に向上させるプロンプティング手法です。

  • スタイルを具体的に指定: 「Cormac McCarthyのスタイルで書く - スパースな対話、長い説明文、引用符なし」は「文学フィクションを書く」を上回ります。
  • モデルに役割を与える: 「あなたはプロの小説家です。このシーンを続けてください、要約せず、表示するだけで。」指示遵守は、モデルが定義されたアイデンティティを持つ場合に改善されます。
  • 温度を0.9~1.1に設定: 創作タスクはより高い温度(より多くのランダム性)の恩恵を受けます。デフォルトOllama温度は0.8です。
  • システムプロンプトを使用: セッションレベルで永続的なスタイル指示を設定します。「あなたはゴシックホラー小説を書いています。」
  • 長いタスクを複数のセクションに分割: 3,000語のチャプターについては、500語のセクションで生成します。
  • ローカルとクラウド出力を比較: PromptQuorumを使用して同じ創作プロンプトを送信します。
創作文章の温度ガイド: 0.7デフォルトは単調すぎ、0.9-1.05がフィクション最適、1.1超で出力が不安定。
創作文章の温度ガイド: 0.7デフォルトは単調すぎ、0.9-1.05がフィクション最適、1.1超で出力が不安定。

ローカルLLMの創作文章についてよくある質問

ローカルLLMはClaudeやGPT-4oなどの執筆補助にとって代わることができますか?

短編コンテンツ(500語未満)の場合、よくプロンプトされた13B以上のローカルモデルは、ブラインドテストではクラウドモデルから区別しにくい出力を生成します。長編フィクション(小説、短編小説全体)の場合、Claude Opus 4.7およびGPT-4oはハードウェアレベルに関わらずナレーティング一貫性をより確実に保ちます。

モデルは私のストーリーの以前の部分を覚えていますか?

現在のコンテキストウィンドウ内のみです。会話履歴がモデルのコンテキスト制限(通常4K~128Kトークン)を超える場合、以前の詳細は忘れられます。長いプロジェクトの場合、各セッションの開始時に定期的にストーリーサマリーを提供してコンテキストを再確立してください。

ソース

  • ニューラルストーリー生成論文 - ナレーティング一貫性に関する学術研究
  • 創作タスク向けMistral 7B - モデルドキュメントと創作ベンチマーク
  • Llama 3.1 8B クリエイティブベンチマーク - 創作文章タスクの評価

創作文章プロンプティングの一般的な誤り

  • コード最適化モデルを創作タスクに使用 - 創作モデルは異なるトレーニングをしています。
  • ローカルモデルが複数の小説ナレーティングを生成することを期待 - 短編テキストで優れています。
  • 創作出力用の温度とサンプリングパラメータを調整しない。

関連トピック

A Note on Third-Party Facts

This article references third-party AI models, benchmarks, prices, and licenses. The AI landscape changes rapidly. Benchmark scores, license terms, model names, and API prices can shift between the time of writing and the time you read this. Before making deployment or compliance decisions based on this article, verify current figures on each provider's official source: Hugging Face model cards for licenses and benchmarks, provider websites for API pricing, and EUR-Lex for current GDPR and EU AI Act text. This article reflects publicly available information as of May 2026.

PromptQuorumで、ローカルLLMを25以上のクラウドモデルと同時に比較しましょう。

PromptQuorumウェイトリストに参加する →

← ローカルLLMに戻る

Beste lokale LLMs für kreatives Schreiben | PromptQuorum