重要なポイント
- 9層・87プロジェクト・1つの地図。 ランタイム、デスクトップアプリ、Web UI、コーディングアシスタント、RAGシステム、エージェントフレームワーク、音声/マルチモーダル、モバイルクライアント、専門プラグイン — 2026年の主要プロジェクトはほぼすべて正確に1つの層に収まります。
- まずランタイムを選ぶ。 Ollamaは読者の約95%に適したデフォルト。llama.cppは他の多くのツールの基盤エンジン。vLLMはマルチユーザーGPUデプロイの本番向け選択肢です。
- ランタイム上の層はほとんどがオプション。 チャットにはデスクトップアプリまたはWeb UIのどちらか一方で十分です。IDEとの統合が必要な場合のみコーディングハーネスを追加。自分のドキュメントを参照したい場合のみRAGシステムを追加してください。
- ライセンスは商用利用で重要。 MITとApache 2.0がエコシステムを占めています。AGPLは一部のUI(text-generation-webui、KoboldCpp、Jan、SillyTavern)に見られます — 個人利用は問題なし、商用デプロイは要確認。
- マルチツールスタックが標準的。 Ollama + Open WebUI + AnythingLLM + Continue.devは1台のマシンでチャット・RAG・コーディングを妥協なくカバーします。下の「実用的なスタック構成」テーブルに実際に機能する組み合わせを掲載しています。
1. ローカルLLMランタイム & 推論エンジン
ランタイムはモデルの重みをメモリに読み込み、プロンプトをトークンに変換するエンジンです。 ローカルLLMスタックの最初の選択肢であり、その上のすべて(デスクトップアプリ、Web UI、コーディング統合)を制約します。Ollamaは2026年にOpenAI互換APIとワンコマンドインストールでユーザーシェアを獲得しています。llama.cppは他の多くのツールの基盤C++エンジン。vLLMはGPU上で複数ユーザーの同時リクエストを処理する場合の選択肢です。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| Ollama | ollama.com | 最も簡単 — ワンコマンドインストール、OpenAI互換API、豊富なモデルライブラリ | MIT |
| llama.cpp | github.com/ggml-org/llama.cpp | 他の多くのツールの基盤C++エンジン。Apple Siliconを含む全環境で動作 | MIT |
| vLLM | github.com/vllm-project/vllm | マルチユーザーGPUデプロイ向け高スループットサービング | Apache 2.0 |
| LocalAI | localai.io | OpenAI APIのドロップイン代替。複数のバックエンドに対応 | MIT |
| TensorRT-LLM | github.com/NVIDIA/TensorRT-LLM | エンタープライズGPU向けNVIDIA最適化推論 | Apache 2.0 |
| MLC LLM | mlc.ai/mlc-llm | モバイル・エッジデバイス向けデプロイランタイム | Apache 2.0 |
| SGLang | github.com/sgl-project/sglang | エージェントパイプライン向け構造化推論サービング | Apache 2.0 |
| ExLlamaV2 | github.com/turboderp-org/exllamav2 | RTX GPU最適化の高速量子化推論 | MIT |
| KoboldCpp | github.com/LostRuins/koboldcpp | UI内蔵の軽量llama.cppラッパー | AGPL 3.0 |
| Llamafile | github.com/Mozilla-Ocho/llamafile | Mozilla製の単一ファイルポータブルLLM実行 | Apache 2.0 |
| MLX-LM | github.com/ml-explore/mlx-examples | Apple Research製のApple Siliconネイティブランタイム | MIT |
2. デスクトップGUIアプリ
デスクトップアプリはランタイムをチャットインターフェースとモデルブラウザでラップします。 ターミナル操作不要でダウンロード・クリック・チャットができるため、ほとんどの非技術系ユーザーの出発点です。LM Studio、Jan、GPT4Allが2026年の大半のユーザーベースを占めています。AnythingLLMはデスクトップアプリとRAG層を兼ねています。Open Interpreterはローカルモデルがコンピュータを操作できる特殊なケースです。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| LM Studio | lmstudio.ai | 最も洗練されたGUI。HuggingFaceモデルブラウザ内蔵、サーバーモード対応 | 無料(プロプライエタリ) |
| Jan | jan.ai | プライバシー重視のオフラインChatGPTクローン。完全オープンソース | AGPL 3.0 |
| GPT4All | nomic.ai/gpt4all | 初心者向け。CPU onlyでの動作が強力 | MIT |
| AnythingLLM | anythingllm.com | ベクターストア内蔵のRAGとドキュメントチャット | MIT |
| Msty | msty.app | すっきりしたコンシューマーUX。マルチプロバイダー対応 | 無料(プロプライエタリ) |
| Cherry Studio | cherry-ai.com | 豊富なカスタマイズのマルチプロバイダーデスクトップAI | Apache 2.0 |
| Faraday | faraday.dev | キャラクターチャットとロールプレイ向けデスクトップクライアント | 無料(プロプライエタリ) |
| Enchanted | enchantedlabs.ai | ネイティブmacOS/iOS向け最小限のOllamaクライアント | MIT |
| h2oGPT | github.com/h2oai/h2ogpt | エンタープライズ機能が充実したデスクトップ・サーバーアプリ | Apache 2.0 |
| Open Interpreter | github.com/OpenInterpreter/open-interpreter | ローカルLLMがコンピュータを操作しコードを実行できる | AGPL 3.0 |
3. Web UI & ブラウザフロントエンド
Web UIはセルフホスト型ChatGPTクローンです — 同じ会話インターフェースを、自分のマシンまたはLAN上のランタイムに向けます。マルチデバイスアクセスやチームでの利用に最適です。Open WebUIが2026年のセルフホストセグメントを支配し、LibreChatがチーム機能の代替、SillyTavernが専用のロールプレイUIです。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| Open WebUI | openwebui.com | RAG内蔵の最も人気のあるセルフホストChatGPT風UI | BSD 3-Clause |
| LibreChat | librechat.ai | チーム機能付きマルチモデルChatGPT代替 | MIT |
| text-generation-webui | github.com/oobabooga/text-generation-webui | 豊富なプラグインエコシステムを持つパワーユーザー向けUI | AGPL 3.0 |
| SillyTavern | github.com/SillyTavern/SillyTavern | ロアブック付きロールプレイとキャラクターチャット | AGPL 3.0 |
| LobeChat | lobehub.com | プラグインマーケットプレイス付きのモダンな洗練されたUI | MIT |
| Big-AGI | github.com/enricoros/big-AGI | ペルソナ付きの高度なマルチプロバイダーフロントエンド | MIT |
| NextChat | github.com/ChatGPTNextWeb/NextChat | 軽量Webチャット。シンプルなデプロイ | MIT |
| Page Assist | github.com/n4ze3m/page-assist | ChromeとFirefox向けブラウザサイドバーAI | MIT |
| Chatbox | chatboxai.app | クロスプラットフォームのデスクトップ・Webクライアント | GPLv3 |
4. コーディングアシスタント & IDE統合
コーディングアシスタントはOpenAI互換APIを介してローカルLLMをエディタまたはターミナルに接続します。 選択はワークフローの好みによります:エディタ内自動補完(Continue.dev)、自律エージェント編集(Cline、OpenHands)、gitネイティブのdiff編集(Aider)。3つのパターンすべてがOpenAI Chat Completionsプロトコルに対応するランタイムで動作します。2026年最も一般的なバックエンドはOllamaです。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| Continue.dev | continue.dev | ローカルモデルを使ったVS CodeとJetBrainsの自動補完・チャット | Apache 2.0 |
| Aider | aider.chat | マルチファイル編集対応のターミナルペアプログラマー | Apache 2.0 |
| Cline | cline.bot | VS Code向け自律コーディングエージェント | Apache 2.0 |
| Tabby | tabby.tabbyml.com | セルフホスト型GitHub Copilot代替 | Apache 2.0 |
| CodeGPT | codegpt.co | 複数エディター向けIDE統合 | MIT |
| OpenHands | github.com/All-Hands-AI/OpenHands | AIソフトウェアエンジニアエージェント(旧OpenDevin) | MIT |
| Cursor(ローカルモード) | cursor.com | ローカルモデル対応のAIファーストコードエディター | 無料(プロプライエタリ) |
| Twinny | github.com/twinnydotdev/twinny | VS Code向け無料Copilot代替 | MIT |
5. RAG & ドキュメントチャットシステム
RAG(Retrieval-Augmented Generation)システムはローカルLLMをembeddingモデルとベクターストアと組み合わせ、自分のドキュメントから回答できるようにします。** ターンキーアプリ(AnythingLLM、PrivateGPT、Quivr、Khoj)とフレームワークライブラリ(LlamaIndex、Haystack、txtai)に分かれます。RAGFlowは2026年に引用精度の高いドキュメント処理で存在感を高めています。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| AnythingLLM | anythingllm.com | ワークスペース付きの最も簡単なオールインワン個人RAG | MIT |
| PrivateGPT | github.com/zylon-ai/private-gpt | 完全オフライン対応のエンタープライズ向けRAG | Apache 2.0 |
| Quivr | github.com/QuivrHQ/quivr | セルフホスト型個人知識アシスタント | Apache 2.0 |
| Khoj | khoj.dev | ObsidianとNotionと同期する個人AI第二の脳 | AGPL 3.0 |
| Dify | dify.ai | RAGとエージェントサポート付きAIワークフロービルダー | Modified Apache 2.0 |
| Flowise | flowiseai.com | ビジュアルLangChainワークフロービルダー | Apache 2.0 |
| Langflow | langflow.org | RAGコンポーネント付きビジュアルAIオーケストレーション | MIT |
| LlamaIndex | llamaindex.ai | RAGフレームワーク / Pythonライブラリ — カスタム開発の基盤 | MIT |
| Haystack | haystack.deepset.ai | deepset製の検索・RAGフレームワーク | Apache 2.0 |
| RAGFlow | ragflow.io | 引用抽出付きの深いドキュメント理解RAG | Apache 2.0 |
| txtai | github.com/neuml/txtai | 1ライブラリに組み込まれたベクターDB + LLMデータベース | Apache 2.0 |
6. エージェントフレームワーク & オーケストレーション
エージェントフレームワークはワンショットLLM呼び出しをマルチステップワークフローに変換します — 計画・実行・観察・繰り返し。LangChainが汎用デフォルトとして残っています。CrewAIとAutoGenはロールベースのマルチエージェントセットアップに特化。LangGraphは長時間フロー全体でのステート管理が重要な場合に適しています。以下8つのフレームワークはすべてローカルOllamaバックエンドで問題なく動作します。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| LangChain | langchain.com | 汎用LLMアプリケーションフレームワーク | MIT |
| LlamaIndex | llamaindex.ai | RAG重視のエージェント・データフレームワーク | MIT |
| CrewAI | crewai.com | ロールベースのマルチエージェントワークフロー | MIT |
| AutoGen | github.com/microsoft/autogen | Microsoftのマルチエージェントオーケストレーションフレームワーク | CC-BY-4.0 / MIT |
| Semantic Kernel | learn.microsoft.com/semantic-kernel | C#/Python/Java向けMicrosoftエンタープライズオーケストレーションSDK | MIT |
| LangGraph | langchain-ai.github.io/langgraph | ステートフルなグラフベースエージェントワークフロー | MIT |
| Letta(旧MemGPT) | letta.com | 長期記憶エージェント | Apache 2.0 |
| Pydantic AI | ai.pydantic.dev | Pydantic上に構築された型安全エージェントフレームワーク | MIT |
詳細記事:MCPを使ったローカルAIエージェント
7. 音声・スピーチ & マルチモーダル
音声・マルチモーダルスタックはローカルLLMをテキスト以外に拡張します — 音声入力(STT)、音声出力(TTS)、視覚。Whisper.cppとfaster-whisperがローカルSTT層を支配。PiperとCoquiがTTS層を共有し、XTTS v2が音声クローニングで優位。LLaVAとOllamaビジョンモデルがビジョン側を担当します。この層と小さなチャットモデルを組み合わせれば完全オフライン音声アシスタントが構築可能です。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| Whisper.cpp | github.com/ggerganov/whisper.cpp | CPUまたはGPUで動作するローカル音声認識 | MIT |
| faster-whisper | github.com/SYSTRAN/faster-whisper | CTranslate2を使った高速Whisper文字起こし | MIT |
| Piper TTS | github.com/rhasspy/piper | 軽量ローカルテキスト読み上げ | MIT |
| Coqui TTS | coqui.ai | 複数モデル対応オープンソース音声合成 | MPL 2.0 |
| XTTS v2 | docs.coqui.ai/en/latest/models/xtts.html | 多言語対応の音声クローニング | CPML |
| Bark | github.com/suno-ai/bark | 非言語音を含む生成音声合成 | MIT |
| StyleTTS 2 | github.com/yl4579/StyleTTS2 | 高品質な自然音声TTS | MIT |
| LLaVA | llava-vl.github.io | ローカルビジョン + 言語モデル | Apache 2.0 |
| Ollamaビジョンモデル | ollama.com | Ollamaによるローカルビジョン(Llama 3.2 Vision、Llavaなど) | 各種 |
8. モバイル & エッジクライアント
モバイルクライアントはApple Neural Engine、Qualcomm NPU、またはCPU推論を使って量子化モデルをスマートフォン上で直接実行します。 MLC LLMプロジェクトが基盤層です。コンシューマーアプリ(PocketPal AI、Private LLM、LLM Farm、Layla)がチャットUIでラップしています。2026年のフラッグシップ機は2-4Bモデルを実用的な速度(8〜15トークン/秒)で実行します。7Bはハイエンド機でギリギリ実行可能な範囲です。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| MLC Chat | mlc.ai/mlc-llm | クロスプラットフォームモバイルLLMランタイム | Apache 2.0 |
| PocketPal AI | github.com/a-ghorbani/pocketpal-ai | 無料のiOS・Androidローカルクライアント | MIT |
| Private LLM | privatellm.app | 洗練されたiOS・macOSローカルLLMアプリ | 有料(プロプライエタリ) |
| LLM Farm | github.com/guinmoon/LLMFarm | モデルブラウザ付きiOSローカルLLM | MIT |
| Layla | layla-network.ai | Android優先のローカルLLMアプリ | 無料(プロプライエタリ) |
| Maid | github.com/Mobile-Artificial-Intelligence/maid | オープンソースFlutterモバイルLLMアプリ | MIT |
| Enchanted | enchantedlabs.ai | ネイティブiOS/macOS Ollamaクライアント | MIT |
| Chapper | prevolut.uk | OllamaとLM Studio対応のネイティブモバイルクライアント | 無料 |
| RikkaHub | github.com/rikkahub/rikkahub | オープンソースAndroidローカルAI | MIT |
| AnythingLLM Mobile | anythingllm.com | ローカルAnythingLLMワークスペースへのリモートアクセス | MIT |
9. 専門ツール & 生産性向上
専門ツールはローカルLLMを既存のアプリに組み込みます — ノートプラットフォーム(Obsidian、Logseq、Joplin)、自律タスクエージェント(AutoGPT、BabyAGI、MetaGPT)、ロールプレイフロントエンド(Agnai、RisuAI)。汎用チャット画面ではなく、ホストアプリとランタイムがすでにある前提のワークフロー固有の統合です。
| Tool | Link | 概要 | ライセンス |
|---|---|---|---|
| Smart Connections | github.com/brianpetro/obsidian-smart-connections | Obsidianのセマンティック検索・チャットプラグイン | GPL 3.0 |
| Copilot for Obsidian | github.com/logancyang/obsidian-copilot | ObsidianのローカルLLMチャットプラグイン | AGPL 3.0 |
| Text Generator | github.com/nhaouari/obsidian-textgenerator-plugin | Obsidianのコンテンツ生成プラグイン | MIT |
| logseq-copilot | github.com/logancyang/logseq-copilot | LogseqのローカルとクラウドLLMチャットプラグイン(Obsidian Copilotと同作者) | AGPL 3.0 |
| BMO Chatbot | github.com/longy2k/obsidian-bmo-chatbot | ローカルLLM付きObsidianチャットボット | MIT |
| Joplin AI | joplinapp.org | ローカルAI統合付きJoplinノート | MIT |
| AutoGPT(ローカル) | github.com/Significant-Gravitas/AutoGPT | Ollamaサポート付き自律タスクエージェント | MIT |
| BabyAGI | github.com/yoheinakajima/babyagi | 軽量自律エージェント | MIT |
| MetaGPT | github.com/geekan/MetaGPT | マルチエージェントのソフトウェア会社シミュレーション | MIT |
| Agnai | agnai.chat | キャラクターカード付きロールプレイフロントエンド | MIT |
| RisuAI | github.com/kwaroran/RisuAI | モバイル対応ロールプレイフロントエンド | GPL 3.0 |
実用的なスタック構成
9つのカテゴリすべてを読みたくない方は、最も近いスタックを選んでそのままコピーしてください。 各行は実際の目標と検証済みの組み合わせ、実際に動作するハードウェア下限を示しています。
| 目的 | スタック | 最低ハードウェア |
|---|---|---|
| カジュアルなチャット | LM Studio standalone | 16GB RAM、GPU不要 |
| パワーユーザーのベストバランス | Ollama + Open WebUI | 16GB RAM、GPU任意 |
| ドキュメントチャット | Ollama + AnythingLLM | 16GB RAM、GPU任意 |
| コーディング | Ollama + Continue.dev | 16GB RAM + GPU推奨 |
| ロールプレイ / クリエイティブ | KoboldCpp + SillyTavern | 16GB RAM、GPU推奨 |
| プライバシー重視業務 | Ollama + Open WebUI + PrivateGPT | 32GB RAM + 12GB VRAM |
| モバイル / 外出先 | MLC Chat または PocketPal AI | iPhone 13+ / Pixel 7+ |
| Apple Silicon | Ollama(MLXバックエンド)またはLM Studio | M2/M3/M4/M5 16GB+統合メモリ |
| マルチユーザーチーム | vLLM + Open WebUI | 32GB+ RAM + マルチGPU |
ディレクトリの最新性について
このディレクトリは6か月ごとに見直されます(次回更新:2026年11月)。掲載基準:直近90日間にコミットがあり活発にメンテナンスされていること、検証可能なオープンソースライセンスまたは商用利用の明確な声明があること、2026年に有意なユーザーシェアを持つか空白層を埋めることです。2リリースサイクル以上非活性なプロジェクトは削除し、基準を満たす新規エントリーは次回見直し時に追加します。掲載提案はPromptQuorumリポジトリのissueまたはPRで受け付けています — プロジェクトURL、ライセンス、上記テーブル形式の一文説明を添えてください。 日本・アジア太平洋地域のご利用について: 経済産業省(METI)の「AI事業者ガイドライン」(2024年)は、企業がAI活用においてデータガバナンスとリスク管理を適切に実施することを求めています。ローカル推論はデータを自社システム内に留めるため、個人情報保護法(APPI)およびアジア太平洋地域のデータ越境規制(日本・シンガポール・マレーシア・韓国)への準拠において構造的に有利な構成です。エンタープライズ展開では、METIガイドラインに基づくリスク評価と、使用ツールのライセンス確認(特に商用利用時のAGPL条項)を推奨します。
参考文献
- ggml-org/llama.cpp GitHub — ランタイムアーキテクチャと対応モデルの主要ソース。
- Ollama Library — 公式モデルカタログとランタイムドキュメント。
- LM Studio Documentation — 主要デスクトップGUIの機能リファレンス。
- Open WebUI Documentation — 主要セルフホストWeb UIの機能リファレンス。
- Hugging Face Hub — 上記各ランタイムが使用するモデル重みのダウンロード元。
- awesome-local-llm GitHubリスト — プロジェクト掲載の健全性チェックに使用するコミュニティ管理インベントリ。
FAQ
ローカルLLMランタイムとデスクトップアプリの違いは何ですか?
ランタイム(Ollama、llama.cpp、vLLM)はモデル重みを読み込みAPIを提供するエンジンです — 通常OpenAI互換。デスクトップアプリ(LM Studio、Jan、GPT4All)はランタイムを呼び出すチャットUIです。一部のアプリは独自ランタイムを内蔵し(LM Studioはllama.cppを組み込み)、別途インストールが必要なものもあります(Open WebUIはOllamaを呼び出す)。ランタイムが何が可能かを決め、アプリが使いやすさを決めます。
このリストから複数のツールを同時に使えますか?
はい — ほとんどのスタックは2〜4つのツールを組み合わせます。一般的な構成:Ollamaをランタイムに、Open WebUIをチャットに、AnythingLLMをドキュメントチャットに、Continue.devをコーディングに — 4つすべてが1台のマシン上の同じOllamaインスタンスを使います。「実用的なスタック構成」テーブルに競合なく動作する組み合わせを掲載しています。
テレメトリなしで完全オフライン動作するツールはどれですか?
Ollama、llama.cpp、vLLM、Jan、GPT4All、Open WebUI、AnythingLLM、PrivateGPT、Continue.dev、Aider、KoboldCpp、Llamafile、MLX-LM、およびこのディレクトリのAGPL/MITライセンスのほとんどのアプリは、モデルダウンロード後に完全オフラインで動作します。LM Studioといくつかのプロプライエタリツールは設定で無効化できるオプション分析機能を持ちます — インストール後にパケットキャプチャで確認してください。ブラウザベースのUI(Open WebUI、LibreChat)はローカルバックエンドで設定された場合のみローカルです。
商用ライセンス(商用利用不可)のツールはありますか?
一部あります:LM Studio、Msty、Faraday、Layla、Cursorはプロプライエタリ — 通常は無料使用可能ですが再配布不可で、商用条件はベンダーによって異なります。Private LLMは有料です。AGPLライセンスのツール(Jan、KoboldCpp、text-generation-webui、SillyTavern、Khoj、Open Interpreter、Copilot for Obsidian)は商用を含むあらゆる目的に無料ですが、変更して公開ホスティングする場合はソースコードの開示が必要です。Apache 2.0とMITプロジェクト(大多数)は商用を含むあらゆる場面で実質的な制約なく使用できます。
Apple Silicon(Mシリーズ)をネイティブサポートするツールはどれですか?
Ollama、llama.cpp、MLX-LM、LM Studio、Jan、Enchanted、GPT4All、MLC Chat、AnythingLLM、ほとんどのElectron/TauriアプリがApple SiliconでネイティブにMetalバックエンドを使って動作します。MLX-LMはApple専用でMシリーズの大型モデルに最速です。vLLM、TensorRT-LLM、ExLlamaV2はNVIDIA重視でApple Siliconでは動作しないか性能が低いです — Appleユーザーにはメタルバックエンドのollamaがデフォルト推奨です。
これらのツールはすべてGGUFモデル形式をサポートしていますか?
GGUFはllama.cppとそれをラップするツール(Ollama、LM Studio、Jan、GPT4All、KoboldCpp、Llamafile)のネイティブ形式です。vLLMとTensorRT-LLMは高スループット向けに独自の最適化フォーマット(通常AWQまたはFP16)を使用します。ExLlamaV2はEXL2量子化を使用。MLX-LMはMLX変換済み重みを使用します。ほとんどのツールはGGUFを受け付けますが、一部(vLLM、TensorRT-LLM、ExLlamaV2、MLX-LM)はHugging Face元重みからの一度限りの変換ステップが必要です。
プログラミング経験のないユーザーに適したツールはどれですか?
GPT4Allが最もシンプルなインストール(ワンクリック、8GB RAMで動作)。LM Studioはターミナル不要で最も機能が充実。JanはノーコードオプションでプライバシーにJanが最適。ドキュメントチャットをコマンドライン不要で行うなら、AnythingLLMが最も簡単です。4つすべてが上のデスクトップGUIアプリカテゴリに掲載されています。
これらのツールをサーバーで動かしてリモートアクセスできますか?
ほとんどのサーバー対応ツール(Ollama、vLLM、LocalAI、Open WebUI、LibreChat、PrivateGPT、AnythingLLM)はHTTP APIを公開し、設定で構成可能なネットワークインターフェースにバインドします。標準パターン:ホームサーバーまたはVPS上でOllamaを動かし、サーバーIPに向けたUIをラップトップまたはスマートフォンで使用。APIは通常のWebサービスと同様に扱ってください — リバースプロキシ越しにlocalhostにバインドするか、認証付きのプライベートネットワークに。Open WebUIはマルチユーザーサポートを標準搭載しています。
マルチユーザー / チーム設定をサポートするツールはどれですか?
Open WebUI、LibreChat、h2oGPT、AnythingLLM(管理機能有効時)、Difyはロールベースアクセスとユーザー別会話履歴を持つマルチユーザー向けに設計されています。同時推論が重要な場合、vLLMが適切なサービング層です — Ollamaでは同時接続3件超で達成できないスループットで複数ユーザーのリクエストをバッチ処理します。
このディレクトリはどのくらいの頻度で更新されますか?
6か月ごと — 次回の予定更新は2026年11月です。中間の変更(プロジェクトが非活性になった、新しいツールが有意なシェアを獲得した、ライセンスが変わった)は既存エントリーへのパッチとして適用されます。新しいカテゴリや層は構造の安定性を保つため更新を待ちます。「参考文献」セクションに更新間のエコシステム監視に使用するコミュニティインデックスを掲載しています。