オープンソースの進展は速すぎます!
たった 1 つのファイルで、個人のコンピュータに LLama を簡単にデプロイできます!
ソースコード
llamafile は、開発者とエンドユーザーが単一のファイルで大規模な言語モデル(LLM)を配布および実行できるようにするオープンソースプロジェクトです。以下に llamafile プロジェクトの詳細を示します:
プロジェクトの目標:llamafile プロジェクトの目標は、大規模な言語モデルへのアクセスと使用を簡素化することです。このプロジェクトを通じて、ユーザーは複雑なインストールや設定プロセスなしで簡単に LLM を実行できます。
技術的な実装:この目標を達成するために、llamafile は llama.cpp を Cosmopolitan Libc と組み合わせたフレームワークを使用しています。この組み合わせにより、LLM のすべての複雑さが 1 つの実行可能ファイルに圧縮され、macOS、Windows、Linux、FreeBSD、OpenBSD、NetBSD などのさまざまなオペレーティングシステムでローカルに実行できるようになります。
使いやすさ:ユーザーは適切な llamafile をダウンロードし、オペレーティングシステムに応じて簡単な操作(Windows では.exe 拡張子を追加してダブルクリックなど)を行うだけで、LLM を起動できます。さらに、llamafile には WebUI インターフェースも提供されており、ユーザーは LLM との対話をより便利に行うことができます。
サポートされるモデル:現在、llamafile は LLaVA、Mistral、Mixtral、WizardCoder など、さまざまな大規模な言語モデルをサポートしています。これらのモデルはすべて量子化モデルであり、純粋な CPU 環境でもスムーズに実行できます。
コミュニティのサポート:llamafile プロジェクトは GitHub でホストされ、かなりの注目を集めています。わずか 2 か月で、このプロジェクトのスターの数は 1 万を超え、開発者やユーザーがこのプロジェクトを認め、興味を持っていることを示しています。
まとめると、llamafile は大規模な言語モデルの配布と実行を簡素化することを目指したオープンソースプロジェクトです。複雑な LLM を 1 つの実行可能ファイルに圧縮することで、ユーザーの利用のハードルが大幅に低くなり、より多くの人々が大規模な言語モデルの強力な機能を簡単に体験し活用することができます。
最も簡単な方法は、LLaVA モデルのサンプル llamafile(ライセンス:LLaMA 2、OpenAI)をダウンロードして自分で試すことです。LLaVA は新しい LLM であり、単なるチャットだけでなく、さらに多くのことができます。画像をアップロードしてそれに関する質問をすることもできます。llamafile では、これらすべてがローカルで行われます。データはコンピュータを離れることはありません。
llava-v1.5-7b-q4.llamafile(3.97 GB)をダウンロードします。
llava-v1.5-7b-q4.llamafile(3.97 GB)をダウンロードします。
コンピュータのターミナルを開きます。
コンピュータのターミナルを開きます。
macOS、Linux、または BSD を使用している場合は、コンピュータがこの新しいファイルを実行するための許可を与える必要があります(1 回だけ行う必要があります)。
chmod +x llava-v1.5-7b-q4.llamafile
Windows を使用している場合は、ファイルの末尾に「.exe」を追加してファイル名を変更します。
llava-v1.5-7b-q4.llamafile.exe
llamafile を実行します。例:
./llava-v1.5-7b-q4.llamafile
ブラウザが自動的に開き、チャットインターフェースが表示されるはずです(表示されない場合は、ブラウザを開いて http://localhost:8080 にアクセスしてください)。
チャットが終わったら、ターミナルに戻り、Control-C を押して llamafile をシャットダウンします。