PromptQuorumPromptQuorum
ホーム/Power Local LLM/ローカルLLMソフトウェア完全ディレクトリ:自分のハードウェアでAIを動かす70以上のツール(2026年版)
Overview & Reference

ローカルLLMソフトウェア完全ディレクトリ:自分のハードウェアでAIを動かす70以上のツール(2026年版)

·20分で読める·Hans Kuepper 著 · PromptQuorumの創設者、マルチモデルAIディスパッチツール · PromptQuorum

2026年のローカルLLMエコシステムは明確に9層に分かれています。 ランタイム(Ollama、llama.cpp、vLLM)はモデルを通じてトークンを処理します。デスクトップアプリ(LM Studio、Jan、GPT4All)はランタイムをチャットUIでラップします。Web UI(Open WebUI、LibreChat)はブラウザで同じことを行います。コーディングアシスタント(Continue.dev、Cline、Aider)はローカルモデルをエディタに接続します。RAGシステム(AnythingLLM、PrivateGPT)はドキュメントに向けます。エージェントフレームワーク(LangChain、CrewAI、LangGraph)は呼び出しをマルチステップワークフローに連鎖させます。音声/マルチモーダルスタック(Whisper.cpp、Piper、LLaVA)はテキスト以外に拡張します。モバイルクライアント(MLC Chat、PocketPal AI)はスマートフォンで動作します。専門プラグイン(Obsidian、Logseq、AutoGPT)は既存ツールに統合します。まずランタイムを選び(ほぼ全員にOllama)、その上に1〜2層を追加してください。**

2026年のローカルLLMエコシステムは、最初に間違ったツールを選ぶだけで数時間を無駄にするほど広大です。このディレクトリでは、ランタイム・デスクトップアプリ・Web UI・コーディングアシスタント・RAGシステム・エージェントフレームワーク・音声/マルチモーダル・モバイルクライアント・専門プラグインの9層にわたる87のプロジェクトを、説明・ライセンス・URLとともに掲載しています。スタックを決める前の「何が存在するか」を把握するための地図としてご活用ください。

重要なポイント

  • 9層・87プロジェクト・1つの地図。 ランタイム、デスクトップアプリ、Web UI、コーディングアシスタント、RAGシステム、エージェントフレームワーク、音声/マルチモーダル、モバイルクライアント、専門プラグイン — 2026年の主要プロジェクトはほぼすべて正確に1つの層に収まります。
  • まずランタイムを選ぶ。 Ollamaは読者の約95%に適したデフォルト。llama.cppは他の多くのツールの基盤エンジン。vLLMはマルチユーザーGPUデプロイの本番向け選択肢です。
  • ランタイム上の層はほとんどがオプション。 チャットにはデスクトップアプリまたはWeb UIのどちらか一方で十分です。IDEとの統合が必要な場合のみコーディングハーネスを追加。自分のドキュメントを参照したい場合のみRAGシステムを追加してください。
  • ライセンスは商用利用で重要。 MITとApache 2.0がエコシステムを占めています。AGPLは一部のUI(text-generation-webui、KoboldCpp、Jan、SillyTavern)に見られます — 個人利用は問題なし、商用デプロイは要確認。
  • マルチツールスタックが標準的。 Ollama + Open WebUI + AnythingLLM + Continue.devは1台のマシンでチャット・RAG・コーディングを妥協なくカバーします。下の「実用的なスタック構成」テーブルに実際に機能する組み合わせを掲載しています。

1. ローカルLLMランタイム & 推論エンジン

ランタイムはモデルの重みをメモリに読み込み、プロンプトをトークンに変換するエンジンです。 ローカルLLMスタックの最初の選択肢であり、その上のすべて(デスクトップアプリ、Web UI、コーディング統合)を制約します。Ollamaは2026年にOpenAI互換APIとワンコマンドインストールでユーザーシェアを獲得しています。llama.cppは他の多くのツールの基盤C++エンジン。vLLMはGPU上で複数ユーザーの同時リクエストを処理する場合の選択肢です。

ToolLink概要ライセンス
Ollamaollama.com最も簡単 — ワンコマンドインストール、OpenAI互換API、豊富なモデルライブラリMIT
llama.cppgithub.com/ggml-org/llama.cpp他の多くのツールの基盤C++エンジン。Apple Siliconを含む全環境で動作MIT
vLLMgithub.com/vllm-project/vllmマルチユーザーGPUデプロイ向け高スループットサービングApache 2.0
LocalAIlocalai.ioOpenAI APIのドロップイン代替。複数のバックエンドに対応MIT
TensorRT-LLMgithub.com/NVIDIA/TensorRT-LLMエンタープライズGPU向けNVIDIA最適化推論Apache 2.0
MLC LLMmlc.ai/mlc-llmモバイル・エッジデバイス向けデプロイランタイムApache 2.0
SGLanggithub.com/sgl-project/sglangエージェントパイプライン向け構造化推論サービングApache 2.0
ExLlamaV2github.com/turboderp-org/exllamav2RTX GPU最適化の高速量子化推論MIT
KoboldCppgithub.com/LostRuins/koboldcppUI内蔵の軽量llama.cppラッパーAGPL 3.0
Llamafilegithub.com/Mozilla-Ocho/llamafileMozilla製の単一ファイルポータブルLLM実行Apache 2.0
MLX-LMgithub.com/ml-explore/mlx-examplesApple Research製のApple SiliconネイティブランタイムMIT

詳細比較:llama.cpp vs Ollama vs vLLM

2. デスクトップGUIアプリ

デスクトップアプリはランタイムをチャットインターフェースとモデルブラウザでラップします。 ターミナル操作不要でダウンロード・クリック・チャットができるため、ほとんどの非技術系ユーザーの出発点です。LM Studio、Jan、GPT4Allが2026年の大半のユーザーベースを占めています。AnythingLLMはデスクトップアプリとRAG層を兼ねています。Open Interpreterはローカルモデルがコンピュータを操作できる特殊なケースです。

ToolLink概要ライセンス
LM Studiolmstudio.ai最も洗練されたGUI。HuggingFaceモデルブラウザ内蔵、サーバーモード対応無料(プロプライエタリ)
Janjan.aiプライバシー重視のオフラインChatGPTクローン。完全オープンソースAGPL 3.0
GPT4Allnomic.ai/gpt4all初心者向け。CPU onlyでの動作が強力MIT
AnythingLLManythingllm.comベクターストア内蔵のRAGとドキュメントチャットMIT
Mstymsty.appすっきりしたコンシューマーUX。マルチプロバイダー対応無料(プロプライエタリ)
Cherry Studiocherry-ai.com豊富なカスタマイズのマルチプロバイダーデスクトップAIApache 2.0
Faradayfaraday.devキャラクターチャットとロールプレイ向けデスクトップクライアント無料(プロプライエタリ)
Enchantedenchantedlabs.aiネイティブmacOS/iOS向け最小限のOllamaクライアントMIT
h2oGPTgithub.com/h2oai/h2ogptエンタープライズ機能が充実したデスクトップ・サーバーアプリApache 2.0
Open Interpretergithub.com/OpenInterpreter/open-interpreterローカルLLMがコンピュータを操作しコードを実行できるAGPL 3.0

詳細比較:LM Studio vs Jan vs GPT4All

3. Web UI & ブラウザフロントエンド

Web UIはセルフホスト型ChatGPTクローンです — 同じ会話インターフェースを、自分のマシンまたはLAN上のランタイムに向けます。マルチデバイスアクセスやチームでの利用に最適です。Open WebUIが2026年のセルフホストセグメントを支配し、LibreChatがチーム機能の代替、SillyTavernが専用のロールプレイUIです。

ToolLink概要ライセンス
Open WebUIopenwebui.comRAG内蔵の最も人気のあるセルフホストChatGPT風UIBSD 3-Clause
LibreChatlibrechat.aiチーム機能付きマルチモデルChatGPT代替MIT
text-generation-webuigithub.com/oobabooga/text-generation-webui豊富なプラグインエコシステムを持つパワーユーザー向けUIAGPL 3.0
SillyTaverngithub.com/SillyTavern/SillyTavernロアブック付きロールプレイとキャラクターチャットAGPL 3.0
LobeChatlobehub.comプラグインマーケットプレイス付きのモダンな洗練されたUIMIT
Big-AGIgithub.com/enricoros/big-AGIペルソナ付きの高度なマルチプロバイダーフロントエンドMIT
NextChatgithub.com/ChatGPTNextWeb/NextChat軽量Webチャット。シンプルなデプロイMIT
Page Assistgithub.com/n4ze3m/page-assistChromeとFirefox向けブラウザサイドバーAIMIT
Chatboxchatboxai.appクロスプラットフォームのデスクトップ・WebクライアントGPLv3

詳細比較:SillyTavern vs Agnai vs RisuAI

4. コーディングアシスタント & IDE統合

コーディングアシスタントはOpenAI互換APIを介してローカルLLMをエディタまたはターミナルに接続します。 選択はワークフローの好みによります:エディタ内自動補完(Continue.dev)、自律エージェント編集(Cline、OpenHands)、gitネイティブのdiff編集(Aider)。3つのパターンすべてがOpenAI Chat Completionsプロトコルに対応するランタイムで動作します。2026年最も一般的なバックエンドはOllamaです。

ToolLink概要ライセンス
Continue.devcontinue.devローカルモデルを使ったVS CodeとJetBrainsの自動補完・チャットApache 2.0
Aideraider.chatマルチファイル編集対応のターミナルペアプログラマーApache 2.0
Clinecline.botVS Code向け自律コーディングエージェントApache 2.0
Tabbytabby.tabbyml.comセルフホスト型GitHub Copilot代替Apache 2.0
CodeGPTcodegpt.co複数エディター向けIDE統合MIT
OpenHandsgithub.com/All-Hands-AI/OpenHandsAIソフトウェアエンジニアエージェント(旧OpenDevin)MIT
Cursor(ローカルモード)cursor.comローカルモデル対応のAIファーストコードエディター無料(プロプライエタリ)
Twinnygithub.com/twinnydotdev/twinnyVS Code向け無料Copilot代替MIT

詳細比較:Continue.dev vs Cline vs Aider

5. RAG & ドキュメントチャットシステム

RAG(Retrieval-Augmented Generation)システムはローカルLLMをembeddingモデルとベクターストアと組み合わせ、自分のドキュメントから回答できるようにします。** ターンキーアプリ(AnythingLLM、PrivateGPT、Quivr、Khoj)とフレームワークライブラリ(LlamaIndex、Haystack、txtai)に分かれます。RAGFlowは2026年に引用精度の高いドキュメント処理で存在感を高めています。

ToolLink概要ライセンス
AnythingLLManythingllm.comワークスペース付きの最も簡単なオールインワン個人RAGMIT
PrivateGPTgithub.com/zylon-ai/private-gpt完全オフライン対応のエンタープライズ向けRAGApache 2.0
Quivrgithub.com/QuivrHQ/quivrセルフホスト型個人知識アシスタントApache 2.0
Khojkhoj.devObsidianとNotionと同期する個人AI第二の脳AGPL 3.0
Difydify.aiRAGとエージェントサポート付きAIワークフロービルダーModified Apache 2.0
Flowiseflowiseai.comビジュアルLangChainワークフロービルダーApache 2.0
Langflowlangflow.orgRAGコンポーネント付きビジュアルAIオーケストレーションMIT
LlamaIndexllamaindex.aiRAGフレームワーク / Pythonライブラリ — カスタム開発の基盤MIT
Haystackhaystack.deepset.aideepset製の検索・RAGフレームワークApache 2.0
RAGFlowragflow.io引用抽出付きの深いドキュメント理解RAGApache 2.0
txtaigithub.com/neuml/txtai1ライブラリに組み込まれたベクターDB + LLMデータベースApache 2.0

詳細比較:AnythingLLM vs PrivateGPT vs Open WebUI

6. エージェントフレームワーク & オーケストレーション

エージェントフレームワークはワンショットLLM呼び出しをマルチステップワークフローに変換します — 計画・実行・観察・繰り返し。LangChainが汎用デフォルトとして残っています。CrewAIとAutoGenはロールベースのマルチエージェントセットアップに特化。LangGraphは長時間フロー全体でのステート管理が重要な場合に適しています。以下8つのフレームワークはすべてローカルOllamaバックエンドで問題なく動作します。

ToolLink概要ライセンス
LangChainlangchain.com汎用LLMアプリケーションフレームワークMIT
LlamaIndexllamaindex.aiRAG重視のエージェント・データフレームワークMIT
CrewAIcrewai.comロールベースのマルチエージェントワークフローMIT
AutoGengithub.com/microsoft/autogenMicrosoftのマルチエージェントオーケストレーションフレームワークCC-BY-4.0 / MIT
Semantic Kernellearn.microsoft.com/semantic-kernelC#/Python/Java向けMicrosoftエンタープライズオーケストレーションSDKMIT
LangGraphlangchain-ai.github.io/langgraphステートフルなグラフベースエージェントワークフローMIT
Letta(旧MemGPT)letta.com長期記憶エージェントApache 2.0
Pydantic AIai.pydantic.devPydantic上に構築された型安全エージェントフレームワークMIT

詳細記事:MCPを使ったローカルAIエージェント

7. 音声・スピーチ & マルチモーダル

音声・マルチモーダルスタックはローカルLLMをテキスト以外に拡張します — 音声入力(STT)、音声出力(TTS)、視覚。Whisper.cppとfaster-whisperがローカルSTT層を支配。PiperとCoquiがTTS層を共有し、XTTS v2が音声クローニングで優位。LLaVAとOllamaビジョンモデルがビジョン側を担当します。この層と小さなチャットモデルを組み合わせれば完全オフライン音声アシスタントが構築可能です。

ToolLink概要ライセンス
Whisper.cppgithub.com/ggerganov/whisper.cppCPUまたはGPUで動作するローカル音声認識MIT
faster-whispergithub.com/SYSTRAN/faster-whisperCTranslate2を使った高速Whisper文字起こしMIT
Piper TTSgithub.com/rhasspy/piper軽量ローカルテキスト読み上げMIT
Coqui TTScoqui.ai複数モデル対応オープンソース音声合成MPL 2.0
XTTS v2docs.coqui.ai/en/latest/models/xtts.html多言語対応の音声クローニングCPML
Barkgithub.com/suno-ai/bark非言語音を含む生成音声合成MIT
StyleTTS 2github.com/yl4579/StyleTTS2高品質な自然音声TTSMIT
LLaVAllava-vl.github.ioローカルビジョン + 言語モデルApache 2.0
Ollamaビジョンモデルollama.comOllamaによるローカルビジョン(Llama 3.2 Vision、Llavaなど)各種

詳細記事:スマートフォンでローカル音声アシスタントを構築する

8. モバイル & エッジクライアント

モバイルクライアントはApple Neural Engine、Qualcomm NPU、またはCPU推論を使って量子化モデルをスマートフォン上で直接実行します。 MLC LLMプロジェクトが基盤層です。コンシューマーアプリ(PocketPal AI、Private LLM、LLM Farm、Layla)がチャットUIでラップしています。2026年のフラッグシップ機は2-4Bモデルを実用的な速度(8〜15トークン/秒)で実行します。7Bはハイエンド機でギリギリ実行可能な範囲です。

ToolLink概要ライセンス
MLC Chatmlc.ai/mlc-llmクロスプラットフォームモバイルLLMランタイムApache 2.0
PocketPal AIgithub.com/a-ghorbani/pocketpal-ai無料のiOS・AndroidローカルクライアントMIT
Private LLMprivatellm.app洗練されたiOS・macOSローカルLLMアプリ有料(プロプライエタリ)
LLM Farmgithub.com/guinmoon/LLMFarmモデルブラウザ付きiOSローカルLLMMIT
Laylalayla-network.aiAndroid優先のローカルLLMアプリ無料(プロプライエタリ)
Maidgithub.com/Mobile-Artificial-Intelligence/maidオープンソースFlutterモバイルLLMアプリMIT
Enchantedenchantedlabs.aiネイティブiOS/macOS OllamaクライアントMIT
Chapperprevolut.ukOllamaとLM Studio対応のネイティブモバイルクライアント無料
RikkaHubgithub.com/rikkahub/rikkahubオープンソースAndroidローカルAIMIT
AnythingLLM Mobileanythingllm.comローカルAnythingLLMワークスペースへのリモートアクセスMIT

詳細記事:2026年のiPhone向けベストローカルLLMアプリ

9. 専門ツール & 生産性向上

専門ツールはローカルLLMを既存のアプリに組み込みます — ノートプラットフォーム(Obsidian、Logseq、Joplin)、自律タスクエージェント(AutoGPT、BabyAGI、MetaGPT)、ロールプレイフロントエンド(Agnai、RisuAI)。汎用チャット画面ではなく、ホストアプリとランタイムがすでにある前提のワークフロー固有の統合です。

ToolLink概要ライセンス
Smart Connectionsgithub.com/brianpetro/obsidian-smart-connectionsObsidianのセマンティック検索・チャットプラグインGPL 3.0
Copilot for Obsidiangithub.com/logancyang/obsidian-copilotObsidianのローカルLLMチャットプラグインAGPL 3.0
Text Generatorgithub.com/nhaouari/obsidian-textgenerator-pluginObsidianのコンテンツ生成プラグインMIT
logseq-copilotgithub.com/logancyang/logseq-copilotLogseqのローカルとクラウドLLMチャットプラグイン(Obsidian Copilotと同作者)AGPL 3.0
BMO Chatbotgithub.com/longy2k/obsidian-bmo-chatbotローカルLLM付きObsidianチャットボットMIT
Joplin AIjoplinapp.orgローカルAI統合付きJoplinノートMIT
AutoGPT(ローカル)github.com/Significant-Gravitas/AutoGPTOllamaサポート付き自律タスクエージェントMIT
BabyAGIgithub.com/yoheinakajima/babyagi軽量自律エージェントMIT
MetaGPTgithub.com/geekan/MetaGPTマルチエージェントのソフトウェア会社シミュレーションMIT
Agnaiagnai.chatキャラクターカード付きロールプレイフロントエンドMIT
RisuAIgithub.com/kwaroran/RisuAIモバイル対応ロールプレイフロントエンドGPL 3.0

詳細記事:2026年のObsidianとローカルLLM

実用的なスタック構成

9つのカテゴリすべてを読みたくない方は、最も近いスタックを選んでそのままコピーしてください。 各行は実際の目標と検証済みの組み合わせ、実際に動作するハードウェア下限を示しています。

目的スタック最低ハードウェア
カジュアルなチャットLM Studio standalone16GB RAM、GPU不要
パワーユーザーのベストバランスOllama + Open WebUI16GB RAM、GPU任意
ドキュメントチャットOllama + AnythingLLM16GB RAM、GPU任意
コーディングOllama + Continue.dev16GB RAM + GPU推奨
ロールプレイ / クリエイティブKoboldCpp + SillyTavern16GB RAM、GPU推奨
プライバシー重視業務Ollama + Open WebUI + PrivateGPT32GB RAM + 12GB VRAM
モバイル / 外出先MLC Chat または PocketPal AIiPhone 13+ / Pixel 7+
Apple SiliconOllama(MLXバックエンド)またはLM StudioM2/M3/M4/M5 16GB+統合メモリ
マルチユーザーチームvLLM + Open WebUI32GB+ RAM + マルチGPU

ディレクトリの最新性について

このディレクトリは6か月ごとに見直されます(次回更新:2026年11月)。掲載基準:直近90日間にコミットがあり活発にメンテナンスされていること、検証可能なオープンソースライセンスまたは商用利用の明確な声明があること、2026年に有意なユーザーシェアを持つか空白層を埋めることです。2リリースサイクル以上非活性なプロジェクトは削除し、基準を満たす新規エントリーは次回見直し時に追加します。掲載提案はPromptQuorumリポジトリのissueまたはPRで受け付けています — プロジェクトURL、ライセンス、上記テーブル形式の一文説明を添えてください。 日本・アジア太平洋地域のご利用について: 経済産業省(METI)の「AI事業者ガイドライン」(2024年)は、企業がAI活用においてデータガバナンスとリスク管理を適切に実施することを求めています。ローカル推論はデータを自社システム内に留めるため、個人情報保護法(APPI)およびアジア太平洋地域のデータ越境規制(日本・シンガポール・マレーシア・韓国)への準拠において構造的に有利な構成です。エンタープライズ展開では、METIガイドラインに基づくリスク評価と、使用ツールのライセンス確認(特に商用利用時のAGPL条項)を推奨します。

参考文献

FAQ

ローカルLLMランタイムとデスクトップアプリの違いは何ですか?

ランタイム(Ollama、llama.cpp、vLLM)はモデル重みを読み込みAPIを提供するエンジンです — 通常OpenAI互換。デスクトップアプリ(LM Studio、Jan、GPT4All)はランタイムを呼び出すチャットUIです。一部のアプリは独自ランタイムを内蔵し(LM Studioはllama.cppを組み込み)、別途インストールが必要なものもあります(Open WebUIはOllamaを呼び出す)。ランタイムが何が可能かを決め、アプリが使いやすさを決めます。

このリストから複数のツールを同時に使えますか?

はい — ほとんどのスタックは2〜4つのツールを組み合わせます。一般的な構成:Ollamaをランタイムに、Open WebUIをチャットに、AnythingLLMをドキュメントチャットに、Continue.devをコーディングに — 4つすべてが1台のマシン上の同じOllamaインスタンスを使います。「実用的なスタック構成」テーブルに競合なく動作する組み合わせを掲載しています。

テレメトリなしで完全オフライン動作するツールはどれですか?

Ollama、llama.cpp、vLLM、Jan、GPT4All、Open WebUI、AnythingLLM、PrivateGPT、Continue.dev、Aider、KoboldCpp、Llamafile、MLX-LM、およびこのディレクトリのAGPL/MITライセンスのほとんどのアプリは、モデルダウンロード後に完全オフラインで動作します。LM Studioといくつかのプロプライエタリツールは設定で無効化できるオプション分析機能を持ちます — インストール後にパケットキャプチャで確認してください。ブラウザベースのUI(Open WebUI、LibreChat)はローカルバックエンドで設定された場合のみローカルです。

商用ライセンス(商用利用不可)のツールはありますか?

一部あります:LM Studio、Msty、Faraday、Layla、Cursorはプロプライエタリ — 通常は無料使用可能ですが再配布不可で、商用条件はベンダーによって異なります。Private LLMは有料です。AGPLライセンスのツール(Jan、KoboldCpp、text-generation-webui、SillyTavern、Khoj、Open Interpreter、Copilot for Obsidian)は商用を含むあらゆる目的に無料ですが、変更して公開ホスティングする場合はソースコードの開示が必要です。Apache 2.0とMITプロジェクト(大多数)は商用を含むあらゆる場面で実質的な制約なく使用できます。

Apple Silicon(Mシリーズ)をネイティブサポートするツールはどれですか?

Ollama、llama.cpp、MLX-LM、LM Studio、Jan、Enchanted、GPT4All、MLC Chat、AnythingLLM、ほとんどのElectron/TauriアプリがApple SiliconでネイティブにMetalバックエンドを使って動作します。MLX-LMはApple専用でMシリーズの大型モデルに最速です。vLLM、TensorRT-LLM、ExLlamaV2はNVIDIA重視でApple Siliconでは動作しないか性能が低いです — Appleユーザーにはメタルバックエンドのollamaがデフォルト推奨です。

これらのツールはすべてGGUFモデル形式をサポートしていますか?

GGUFはllama.cppとそれをラップするツール(Ollama、LM Studio、Jan、GPT4All、KoboldCpp、Llamafile)のネイティブ形式です。vLLMとTensorRT-LLMは高スループット向けに独自の最適化フォーマット(通常AWQまたはFP16)を使用します。ExLlamaV2はEXL2量子化を使用。MLX-LMはMLX変換済み重みを使用します。ほとんどのツールはGGUFを受け付けますが、一部(vLLM、TensorRT-LLM、ExLlamaV2、MLX-LM)はHugging Face元重みからの一度限りの変換ステップが必要です。

プログラミング経験のないユーザーに適したツールはどれですか?

GPT4Allが最もシンプルなインストール(ワンクリック、8GB RAMで動作)。LM Studioはターミナル不要で最も機能が充実。JanはノーコードオプションでプライバシーにJanが最適。ドキュメントチャットをコマンドライン不要で行うなら、AnythingLLMが最も簡単です。4つすべてが上のデスクトップGUIアプリカテゴリに掲載されています。

これらのツールをサーバーで動かしてリモートアクセスできますか?

ほとんどのサーバー対応ツール(Ollama、vLLM、LocalAI、Open WebUI、LibreChat、PrivateGPT、AnythingLLM)はHTTP APIを公開し、設定で構成可能なネットワークインターフェースにバインドします。標準パターン:ホームサーバーまたはVPS上でOllamaを動かし、サーバーIPに向けたUIをラップトップまたはスマートフォンで使用。APIは通常のWebサービスと同様に扱ってください — リバースプロキシ越しにlocalhostにバインドするか、認証付きのプライベートネットワークに。Open WebUIはマルチユーザーサポートを標準搭載しています。

マルチユーザー / チーム設定をサポートするツールはどれですか?

Open WebUI、LibreChat、h2oGPT、AnythingLLM(管理機能有効時)、Difyはロールベースアクセスとユーザー別会話履歴を持つマルチユーザー向けに設計されています。同時推論が重要な場合、vLLMが適切なサービング層です — Ollamaでは同時接続3件超で達成できないスループットで複数ユーザーのリクエストをバッチ処理します。

このディレクトリはどのくらいの頻度で更新されますか?

6か月ごと — 次回の予定更新は2026年11月です。中間の変更(プロジェクトが非活性になった、新しいツールが有意なシェアを獲得した、ライセンスが変わった)は既存エントリーへのパッチとして適用されます。新しいカテゴリや層は構造の安定性を保つため更新を待ちます。「参考文献」セクションに更新間のエコシステム監視に使用するコミュニティインデックスを掲載しています。

← Power Local LLM に戻る

ローカルLLMソフトウェア一覧2026:70以上のツールを網羅 | PromptQuorum