重要なポイント
- 最多ダウンロード:Llama 3.2 3B(チュートリアル向け)とLlama 4 Scout(最高品質、MoE)。
- 推論最強:DeepSeek-R1 7B・14B – Chain-of-Thought、数学・ロジックで大型モデル超過。
- コーディング最強:Kimi K2.6(Frontier MoE)、Qwen 3.6 27B(最高密度)、Devstral Small 24B(最高エージェント)。
- ビジョン最強:Gemma 4 9B(ビジョン+Tool Calling)とLlama 3.2 Vision 11B。
- Ollamaライブラリ5月2026:4,500+モデル。すべて`ollama pull <名前>`で利用可。
Ollama最人気モデル
Ollamaは完全公開ダウンロード統計を提供。 2026年5月データより:
Llama 3.2 3Bは全体で最多ダウンロード。主にチュートリアルとして使用。Llama 4 Scoutは2026年3月リリース後、品質向上で急速に上昇。
Qwen3・Qwen 3.6はOllama ライブラリで最速成長のモデルファミリー。Qwen3と新しいQwen 3.6密度バリアントがQwen2.5を急速に置き換え。DeepSeek-R1と新しいDeepSeek-R2はリリース後の大きなスパイク後、推論タスク向けに常に高ダウンロード状態。
Meta Llama 4 April 2025リリースでScout(17B活性、109B合計、MoE)とMaverick(17B活性、400B合計)を展開。Ollama ライブラリで安定済み(`ollama pull llama4:scout`)。Ollama エコシステムは2026年4月末/5月初に大幅拡張。Kimi K2.6(Moonshot AI、MIT、42B活性/1T合計MoE)は初の非西方モデルとしてコーディングベンチマークのTier Aに到達(87/100)。Qwen 3.6 27Bは77.2% SWE-benchで最高密度コーディングを達成。Ollama v0.22.1がGemma 4サポートと思考・ツール呼び出しの改善を追加。Ollama ライブラリは4,500+モデルを参照。
カテゴリ別トップモデル
モデルの出力品質はプロンプトの設計に大きく左右されます。Chain-of-Thought、Few-Shot例、出力フォーマットなど、すべてのローカルモデルで使える構造化テクニックについてはプロンプトエンジニアリングガイドをご覧ください。推論タスク用に、Chain-of-ThoughtプロンプティングはDeepSeek-R1とQwen3出力品質を大幅に改善。Gemma 4エージェントワークフロー用はTree-of-Thoughtと ReAct参照。このリストにあるツール呼び出し対応モデルを、ファイルアクセスやデータベース照会まで含むマルチステップのループに組み込む方法は、MCP を使ったローカル AI エージェントを参照してください。オープンソースのオーケストレーションパターンを解説しています。
- 一般チャット(初心者):`ollama run llama3.2:3b` -- ドキュメント多数、最適入門モデル。
- 一般チャット(品質):`ollama run llama4:scout` -- MoEアーキテクチャ、~10GB VRAM。8GB機はllama3.2:3b維持。
- コード(7B):`ollama run qwen3:8b` -- 76% HumanEval、Qwen2.5から改善、多言語対応。
- コード(最高エージェント、24B):`ollama run devstral-small:24b` -- 最高エージェントコーディング(マルチファイル編集、デバッグ)。16GB RAM。Mistral AI製。
- コード(最高密集、27B):`ollama run qwen3.6:27b` -- 77.2% SWE-bench。最高密集コーディングモデル。22GB VRAM。
- コード(フロンティアMoE):`ollama run kimi-k2.6` -- 87/100実践コーディング、トップティア。MoE(42B活性/1T合計)。MIT License。
- エージェント・ツール呼び出し:`ollama run gemma4:9b` -- 2026年4月2日リリース。組み込みツール呼び出し+ビジョンサポート。ローカルエージェント、機能呼び出し、構造出力推奨。6GB RAM。
- 推論・数学:`ollama run deepseek-r1:7b` -- Chain-of-Thoughtモデル、ローカル数学最高性能at 7B。
- 多言語:`ollama run qwen3:7b` -- 29+言語対応、非英語対応最強、76% HumanEval。
- 画像理解:`ollama run gemma4:9b` -- Vision + Tool Calling(2026年5月)。または `ollama run llama3.2-vision:11b`専用Vision。
- 高速・軽量:`ollama run gemma2:2b` -- 最速CPU推論、1.7GB RAM。
- 高品質(16GB RAM):`ollama run mistral-small3.1` -- 70B品質に近い14GB RAM。
DeepSeek-R1:推論ブレークスルー
DeepSeek-R1は2025年1月リリース。ローカルサイズでの推論大躍進。Chain-of-Thought(CoT)実装で思考過程を表示。
- サイズ展開:1.5B(モバイル)、7B、70B。1.5Bは教育端末で十分。7Bはllama 3.1 13Bを数学で上回る。
- ベンチマーク:52% MATH(Llama 3.1 8B比23%)。ロジック・多段階問題解決向上。
- RAM必須:1.5B:2GB、7B:6GB、70B:44GB(Q4量子化)。
- ライセンス:DeepSeek License(逆アセンブリ制限あり。エンタープライズ前に確認)。
- 日本データ処理:APAC地域デプロイ時、DeepSeek-R1はデータ保護方針準拠。ローカル実行で主権確保--クラウド転送なし。
ollama run deepseek-r1:7b
# プロンプト例:「時速100kmで駅に近づく列車2台、いつ出会う?」
# DeepSeek-R1:7bが思考過程を表示:
# <思考>
# ...経路を探索、仮定を検証...
# </思考>
# 答え:彼らは出会う...ビジョンモデル
4つの優秀ビジョンモデルがOllamaネイティブ対応:
| モデル | RAM | 画像対応 | Ollamaコマンド |
|---|---|---|---|
| Llama 3.2 Vision 11B | 11 GB | JPEG、PNG、GIF・複数画像入力 | ollama run llama3.2-vision:11b |
| Qwen2-VL 7B | 8 GB | JPEG、PNG・OCR精密 | ollama run qwen2-vl:7b |
| Gemma 3 Vision 9B | 9.5 GB | JPEG、PNG・ネイティブ128Kコンテキスト | ollama run gemma3:9b |
| Mistral AI Pixtral 12B | 12.5 GB | JPEG、PNG・潜在表現 | ollama run pixtral:12b |
トップ10完全比較
2026年4月Ollama月間DL数トップ10:
| # | モデル | 最適用途 | RAM | HumanEval |
|---|---|---|---|---|
| 1 | Llama 3.1 8B | 初心者・汎用 | 6.5 GB | 68.2% |
| 2 | Qwen2.5 7B | コード・数学 | 6.5 GB | 75.4% |
| 3 | Mistral 7B | 多言語 | 6.5 GB | 73.2% |
| 4 | Llama 3.3 70B | 高スループット | 44 GB | 86.1% |
| 5 | DeepSeek-R1 7B | 推論 | 6.5 GB | 76.8% |
| 6 | Gemma 3 9B | ビジョン+テキスト | 9.5 GB | 72.1% |
| 7 | Llama 3.2 Vision 11B | マルチモーダル | 11 GB | 71.5% |
| 8 | Phi-3.5 Mini 3.8B | 小型端末 | 3 GB | 61.2% |
| 9 | Qwen2.5 32B | 品質重視 | 20 GB | 81.7% |
| 10 | Mistral Small 3.1 | 高速・軽量 | 5 GB | 68.9% |
Ollama ライブラリの探索方法
Ollamaモデルの操作には2つの方法があります。インストール済みモデルの切り替え: Ollama Macアプリのチャット入力欄下部にあるモデルドロップダウンボタン(例:"gemma3:1b"と表示)をクリックして、ローカルにインストールされたモデルを切り替えます。新しいモデルの検索・ダウンロード: ollama.com/libraryで4500以上のモデルをカテゴリ別に検索し、以下のCLIコマンドでインストールします。
- ブラウザで https://ollama.ai/library を開く。4500+モデル検索可能。
- フィルタオプション:モデルサイズ、ライセンス、リリース日、ベンチマーク(MMLU、HumanEval、MATH)。
- モデル評価:ユーザーDL数、GitHub⭐(ベースモデル)、Ollama⭐。
- Ollama新モデル:毎週木曜日UTC 18:00更新。
ollama list
# インストール済みモデル表示
ollama pull llama3.1:8b
# Llama 3.1 8B ダウンロード・インストール
ollama pull qwen2.5:7b
# Qwen2.5 7B ダウンロード(コード・数学向け)
ollama run qwen2.5:7b
# インタラクティブセッション開始
ollama run -m deepseek-r1:7b "2^10を解く"
# CoTで推論タスク実行Ollama選択の一般的ミス
大きいモデルタグをプルしたがRAM満杯。何が?
確認なしプル。プル前に`ollama show [model-name]`実行。例:`ollama show llama3.1:70b`でRAM表示(約42-48GB、Q4量子化)。初心者は7B-13Bに留める(RAM 16GB以下)。`ollama rm [model-name]`で削除。
Llama 3.1みたいな汎用モデル使うがコード遅い。なぜ?
Llama 3.1 8Bは汎用向きだがQwen2.5やMistral 7Bは技術専門。コード:Qwen2.5 7B切替(HumanEval 75.4% vs Llama 68.2%)。両方RAM 8GB以下。
モデルプルしたが表示されない。確認は?
`ollama list`実行。モデルはMac: `~/.ollama/models/`またはWindows: `%USERPROFILE%.ollamamodels`に保存。表示されなければOllamaデーモン再起動:終了して再起動。
よくある質問
ローカルモデルに必要なRAM量は?
7B:6.5-8GB。13B:11-14GB。70B:42-48GB(Q4_K_M量子化)。3B:2-3GB。プル前に`ollama show [model-name]`で確認。
Ollamaモデルはオフラインで実行できる?
はい。初期DL後、推論は完全ローカル実行。インターネット不要。Ollamaが定期更新確認(自動適用なし)。
日本語サポート最高のモデルは?
Qwen2.5 7B。CulturaXと日本語Wikiで高精度。Llama 3.1は日本語OK但しQwenが精密。Mistral 7Bは仏語西語向き。
Ollamaモデルは本当に無料?
はい。全Ollamaモデルはオープンソース・フリーライセンス(Apache 2.0、Meta Llama Community、Deepseek)。サブスク・API料金なし。DL・ローカルインストール・無制限使用。
DeepSeek-R1の速度は本当?
生成速度:M1 Pro 15-25tokens/秒(Llama 3.1 7B相応)。総レイテンシは思考過程生成で高い--中程度クエリ8-12秒。リアルタイム:Llama 3.1やMistral。
OllamaでなくChatGPT Plusを選ぶ理由は?
プライバシー:チャットがOpenAIに送信されない。コスト:月額なし・GPU買い切り。オフライン:完全インターネット不要。カスタマイズ:システムプロンプト・動作・パラメータ全掌握。
Ollamaモデルは画像処理できる?
はい。Llama 3.2 Vision、Qwen2-VL、Gemma 3全てマルチモーダル。画像をローカルファイルアップロード。クラウド転送なし。JPEG、PNG、GIF対応。
Ollamaモデルを新版にアップデートは?
`ollama pull [model-name]`再実行。差分のみDL(重複排除)。旧版削除:`ollama rm [model-name]:tag`。
GDPRはOllamaで気にすべき?
はい。GDPR個人データセキュリティ必須。ローカル推論で設計による保護要件満たし。クラウド転送なし=主権・非エクスポート・コンプライアンス。注:クラウドモデル使用時は処理契約確認。
日本企業向けOllama活用は?
はい。日本企業が利益:データ主権(クラウドロックイン回避)、IT標準準拠(IPA・MEI-TI Governance 2024)、標準HW スケーラビリティ、API料金排除。Qwen2.5 7Bは標準デスクGPUで実行。Llama 3.1 8Bはエンタープライズスタンダードツール・顧客自動化・文書処理向け検証済み。
参考資料
- VS CodeとCursorでローカルLLMインストール -- VS CodeとCursorが今Ollama自動認識。
- ローカルモデル選択:Llamaは Qwenか Mistralか -- ビギナー向け完全比較。
- OllamaはLM Studioより速い? -- GPU・スループットベンチ。
- Ollama Windows/Mac インストール方法 -- ステップバイステップ・環境設定。
- ローカルLLM ハードウェアガイド2026 GPU要件 -- どのGPU・RAM・ストレージがモデルに必須。
- トラブル:Ollama エラーと解策 -- CUDA・MPS・CPU落とし穴・一般エラー。
ソース
- Ollama モデルライブラリ -- 4500+モデル、ライブDL統計。
- Ollama GitHub:DL人気モデル -- 月別ユーザー・トレンド(公開)。
- DeepSeek-R1 論文 -- "DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning"(2025年1月)。
- Gemma 3 発表 -- GoogleブログGemma 3マルチモーダル・128Kコンテキスト(2026年2月)。