テンセントの CodeStudio と Ollama による Deepseek-R1 大モデルのデプロイ#
テンセントの CodeStudio はなんと Ollama を使って Deepseek-R1 大モデルをデプロイできる。鍵は 1 ヶ月 10000 分のクレジット、まるで無料だ!普通のコンピュータでは耐えられない仲間は、テンセントクラウドに登録して、大モデルのデプロイの楽しさを自分で試してみてください。
前準備#
Ollama は無料のオープンソースツールで、ユーザーが自分のコンピュータ上でローカルに大規模言語モデル(LLM)を実行できるようにします。macOS、Linux、Windows に対応しています。要するに:これは便利な小助手で、1 行のコマンドで大モデルをインストール、デプロイ、実行できます。
公式サイト:Ollama 公式サイト
自分のコンピュータで大モデルをデプロイしたいなら、このツールは本当に見逃せません!
クラウドデプロイの手順#
それでは、始めましょう!
-
テンセントクラウドにアクセス: テンセントクラウド IDE
-
スペーステンプレートを選択: 「スペーステンプレート」で「ollama」テンプレートを選択します。毎月 10000 分 の無料時間があることが表示されます、つまり 166.7 時間です。
. Ollama リストが表示される: この時点で Ollama のリストが表示されます。
4. ターミナルを開く: この時、VSCode のダイアログボックスが表示され、スクリーンショットの手順に従うと、ターミナルエリアが表示されます。
5. コマンドを入力: コードを直接入力します:
ollama run deepseek-r1
「Enter」キーを押して実行します。この時、リモートリポジトリからイメージを取得し、デフォルトでパラメータ数 7B のクラウド大モデルがダウンロードされます。
しばらくすると、インストールが完了し、 >>> のマークが表示されます。ここで Deepseek-R1 と対話できます。
Ollama サービスが起動しているポートを見つける
6399 であることがわかりました。CodeStudio には VSCode のコード開発ウィンドウが付属しているため、テンセントの「AI コードアシスタント」を使って「deepseek-r1」を呼び出すプログラムを生成することもできます。
具体的な指示
このように書くことができます:
curl http://0.0.0.0:6399/api/chat -d '{
"model": "deepseek-r1",
"messages": [
{ "role": "user", "content": "こんにちは" }
]
}'
これで Deepseek の API を簡単に呼び出せるようになり、開発やデバッグが便利になります。
注意
毎月 1 万分の無料時間が提供されますが、24 時間稼働させても 1 週間ちょっとしか持ちません。使い切った場合は、ホームページに戻って直接シャットダウンをクリックすれば大丈夫です。