無料でオープンソースの OpenAI の代替案。セルフホスティング、コミュニティ駆動、ローカル優先。OpenAI と同等の機能を持つ消費者向けハードウェア上で動作する直接の代替品。GPU は必要ありません。ggml、gguf、GPTQ、onnx、TF 互換モデルを実行する:llama、llama2、rwkv、whisper、vicuna、koala、cerebras、falcon、dolly、starcoder など
公式ウェブサイト https://localai.io/
GitHub アドレス
国内ミラー(翻訳版)
http://www.gitpp.com/llm/localai-cn
LocalAI は無料のオープンソースの OpenAI の代替品です。LocalAI は REST API の直接の代替品であり、ローカル推論に OpenAI API の仕様と互換性があります。これにより、消費者向けハードウェアを使用して LLM、画像生成、音声生成などをローカルまたはオンプレミスで実行できます。GPU は必要ありません。
LocalAI は、開発者に無料で使いやすいローカル AI ソリューションを提供することを目的としたオープンソースプロジェクトです。OpenAI の API 仕様と互換性があり、開発者は OpenAI のサービスを使用せずに同様の機能を利用することができます。LocalAI は言語モデル、画像生成モデル、音声生成モデルなど、さまざまなモデルシリーズをサポートしています。
LocalAI の特徴は次のとおりです:
-
オープンソース:LocalAI はオープンソースであり、誰でも自由にソースコードを閲覧、変更、配布することができます。
-
無料利用:LocalAI は無料の使用権限を提供し、開発者は費用をかけずに機能を利用することができます。
-
ローカル推論:LocalAI はローカルハードウェアでの推論をサポートしており、クラウドサービスに接続する必要はありません。
-
消費者向けハードウェア:LocalAI は消費者向けハードウェアで動作し、高性能な GPU や特殊なハードウェアのサポートは必要ありません。
-
モデルの互換性:LocalAI は複数のモデルシリーズをサポートしており、開発者は自分のニーズに合わせて適切なモデルを選択することができます。
-
API の互換性:LocalAI のインターフェースは OpenAI の API 仕様と互換性があり、既存の OpenAI のコードを比較的簡単に LocalAI に移行することができます。
LocalAI の登場により、中央集権化されたサービスを使用したくない開発者や、データをローカル環境に保持したいと考える開発者に代替選択肢が提供されます。ただし、LocalAI は便利な機能を提供する一方で、完全に OpenAI のサービスを代替することはできない場合があります、特にモデルのパフォーマンスや機能の面でです。開発者は、自分のニーズと期待に基づいて LocalAI を使用する際に評価する必要があります。
始める方法
LocalAI を実行する最も簡単な方法は、Docker Compose または Docker と一緒に使用することです(ローカルでビルドする場合は、ビルドセクションを参照してください)。
LocalAI には、少なくとも 1 つのモデルファイルまたは 1 つの設定 YAML ファイル、またはその両方が必要です。設定ファイルを使用して、さらなるモデルのデフォルト値と特定の設定をカスタマイズすることができます。
コンテナイメージの要件:
Docker または Podman、またはコンテナエンジン
LocalAI をビルドするには、ローカルでコンテナイメージ Docker を使用できます。例えば:
# イメージをビルドする
docker build -t localai .
docker run localai
ローカル
LocalAI をローカルでビルドするには、次の要件を満たす必要があります:
- Golang >= 1.21
- Cmake/make
- GCC
- GRPC
以下のコマンドを使用して LocalAI をビルドするには、次の要件を満たす必要があります:
git clone https://github.com/go-skynet/LocalAI
cd LocalAI
make build