重要なポイント
- 標準ベンチマーク(MMLU、HumanEval)は創作文章の品質を測定しません。自分のサンプルプロンプトで直接評価してください。
- 全体で最高の散文: Llama 3.3 70B -- ローカル実行可能スケールで最も自然な英語ナレーティブスタイル。
- 16GB RAM向けの最高選択肢: Mistral Small 3.1 24B -- 強い創作出力、長編ナレーティングで7Bモデルより明らかに優れています。
- 8GB RAM向けの最高選択肢: Llama 3.1 8B -- 英語フィクションタスクでQwen2.5 7Bより優れた創作指示遵守。
- コミュニティファインチューン(Fimbulvetr-11B、Midnight-Rose-70B)は創作フィクション用に特別に訓練されており、長編ナレーティブタスクでベースモデルより優れています。
ローカルLLMの創作文章品質をどう評価するか
客観的ベンチマークは知識と推論を測定しますが、創作品質は測定しません。 創作文章用のモデルを評価するには、使用予定のプロンプトで直接テストしてください。
注意点: 標準ベンチマークではスコアが高くても、実際の創作文章の品質とは無関係な場合があります。必ず実際のテストを行ってください。
- 散文継続テスト: モデルにシーンの最初の2段落を与えて、500語の継続を要求します。一貫したトーン、キャラクター音声、ナレーティブロジックを保持していますか?
- スタイル指示テスト: モデルに「レイモンド・カーヴァーのスタイルで」または「スリラー小説のペースで」段落を書くよう要求します。明確にスタイルを変更していますか?
- 長編一貫性テスト: 特定のツイストエンディングで1000語の短編を要求します。モデルは自然にセットアップを配置し、報酬を提供していますか?
- 会話テスト: 異なるスピーチパターンを持つ2つのキャラクターを使用してシーンを書きます。各キャラクターは異なって聞こえますか?
#1 Meta Llama 3.3 70B - ローカルで最高の散文品質
Llama 3.3 70Bはローカル実行可能な任意のモデルの中で最も自然で多様な英語散文を生成します。多様な英語テキストコーパスのトレーニングにより、最広範な文体レンジが得られます。
実用的なコツ: 40GBのメモリが必要ですが、M2 Ultraマシンを使用すれば、1秒間に20-35トークンの速度を達成できます。これにより、実時間での創作セッションに最適です。
| Spec | Value |
|---|---|
| 最適な用途 | 長編フィクション、豊かな散文 |
| RAM必要(Q4_K_M) | ~40 GB |
| 散文スタイル範囲 | ローカルモデル中最広 |
| 長編一貫性 | 強力(1K~3K語シーン) |
| Ollama コマンド | ollama run llama3.3:70b |
#2 Mistral Small 3.1 24B - 16GB RAM向け最高の創作文章
Mistral Small 3 .1 24Bは、7Bモデルより明らかに優れた創作文章品質を提供しながら、14GB RAMに収まります。詳細なスタイル仕様を処理するのに十分な精度があります。
実用的なコツ: ワークステーションクラスのハードウェアなしで本物の長編ナレーティング機能を望むユーザーにとって、これが最良の選択肢です。
#3 Llama 3.1 8B - 8GB RAM向け最高の創作文章
8GB RAMレベルでは、Llama 3 .1 8BはQwen2.5 7BおよびMistral 7Bを英語創作文章で上回ります。Qwen2.5はコーディングと構造化タスクで強力ですが、英語散文生成はナレーティブ目的で流動性が低くなります。
注意点: 500語以下の短編に適しています。1000語を超えるストーリーでは品質が低下する傾向があります。これは8Bスケールモデルの基本的な制限です。
#4 フィクション・ロールプレイ用コミュニティファインチューン
ローカルLLMコミュニティは、フィクションコーパスでトレーニングされた専門のファインチューンを保持しており、長編ナレーティブタスクでベースモデルを上回ります。 これらはHugging Faceで利用でき、LM StudioまたはOllama(カスタムModelfilesを使用)で読み込むことができます。
実践Tips: Hugging Faceから「creative writing GGUF」を検索して、LM Studioのモデルブラウザに読み込むか、カスタムModelfileで`ollama create`経由で読み込みます。
- Fimbulvetr-11B - ファンタジーおよびサイエンスフィクション散文の高品質でファインチューン。ベースLlama 3.1 8Bより鮮やかな感覚の詳細と一貫したキャラクター音声を生成します。
- Midnight-Rose-70B - 創作文章とロールプレイシナリオに焦点を当てたLlama 3.3 70Bファインチューン。ベースモデルより優れた長編ナレーティング一貫性。
- Noromaid / Openhermes 変種 - 会話型ロールプレイに焦点を当てたコミュニティファインチューン。Fimbulvetrより低い散文品質ですが、キャラクター方向への応答性がより高いです。
ローカルLLMの創作文章を改善するプロンプティングコツ
実践的なテクニック:創作出力の質を大幅に向上させるプロンプティング手法です。
- スタイルを具体的に指定: 「Cormac McCarthyのスタイルで書く - スパースな対話、長い説明文、引用符なし」は「文学フィクションを書く」を上回ります。
- モデルに役割を与える: 「あなたはプロの小説家です。このシーンを続けてください、要約せず、表示するだけで。」指示遵守は、モデルが定義されたアイデンティティを持つ場合に改善されます。
- 温度を0.9~1.1に設定: 創作タスクはより高い温度(より多くのランダム性)の恩恵を受けます。デフォルトOllama温度は0.8です。
- システムプロンプトを使用: セッションレベルで永続的なスタイル指示を設定します。「あなたはゴシックホラー小説を書いています。」
- 長いタスクを複数のセクションに分割: 3,000語のチャプターについては、500語のセクションで生成します。
- ローカルとクラウド出力を比較: PromptQuorumを使用して同じ創作プロンプトを送信します。
ローカルLLMの創作文章についてよくある質問
ローカルLLMはClaudeやGPT-4oなどの執筆補助にとって代わることができますか?
短編コンテンツ(500語未満)の場合、よくプロンプトされた13B以上のローカルモデルは、ブラインドテストではクラウドモデルから区別しにくい出力を生成します。長編フィクション(小説、短編小説全体)の場合、Claude Opus 4.7およびGPT-4oはハードウェアレベルに関わらずナレーティング一貫性をより確実に保ちます。
モデルは私のストーリーの以前の部分を覚えていますか?
現在のコンテキストウィンドウ内のみです。会話履歴がモデルのコンテキスト制限(通常4K~128Kトークン)を超える場合、以前の詳細は忘れられます。長いプロジェクトの場合、各セッションの開始時に定期的にストーリーサマリーを提供してコンテキストを再確立してください。
ソース
- ニューラルストーリー生成論文 - ナレーティング一貫性に関する学術研究
- 創作タスク向けMistral 7B - モデルドキュメントと創作ベンチマーク
- Llama 3.1 8B クリエイティブベンチマーク - 創作文章タスクの評価
創作文章プロンプティングの一般的な誤り
- コード最適化モデルを創作タスクに使用 - 創作モデルは異なるトレーニングをしています。
- ローカルモデルが複数の小説ナレーティングを生成することを期待 - 短編テキストで優れています。
- 創作出力用の温度とサンプリングパラメータを調整しない。
関連トピック
- 2026年の最高のローカルLLM - ユースケース全体の総合ランキング
- ノートパソコンでローカルLLMを実行する方法 - ライター向けのパフォーマンス最適化
- 初心者向けベストローカルLLMモデル - 創作文章用基礎モデル
- ローカルLLMの制限事項 - モデル制限の理解