更正、筆者のテストによると、Cloud Studio 高性能基礎版は何らかの理由で外部サービスをサポートしていません。つまり、デフォルトでは彼のコマンドラインの下でのみ対話操作を行うことができます。
以下の図:
API サービスを提供できませんが、他のマシンおよび hai マシンは筆者のテストでサポートされています。
接上篇文章来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!
今日は腾讯云 cloud studio を使って無料で私たちの deepseek r1 大モデルを構築します。始めましょう。
-
ollama のモデルページを開く
モデルページには ollama がサポートするワンクリックインストールモデルがリストされています。例えば、私たちが deepseek-r1 をインストールする必要がある場合、このリンクをクリックするだけで、モデルの具体的なページを開くことができます。適切なものがない場合は、検索バーにモデルのキーワードを入力して検索できます。 -
モデルの詳細ページ
ここから、現在サポートされているモデルには 1.5b、7b、8b、14b、32b、20b、671b などがあることがわかります。必要なモデルに直接切り替えるだけです。以下の図のように。
私たちは 32b のモデルをインストールすることにします。すべてのモデルがリストされていない場合は、図に示された「すべて表示」をクリックできます。
- モデルのインストール
コマンドをコピーし、その後 cloud studio のターミナルコマンドボックスにコマンドを入力して、大モデルのインストールと実行を行います。ちなみに、モデルを取得するだけでなく、実行を取得する場合は、
ollama pull xxx
を使用できます。ollama は hf のモデルもサポートしていますが、変換が必要です。ここでは詳細な説明はしません。
ollama run deepseek-r1:32b
エンターを押してダウンロードが完了するのを待ちます。
この時、待機時間が少し長くなります。結局、インターネットから直接このモデルをダウンロードするので、モデルが大きいほどダウンロード時間が長くなりますが、理論的にはより大きなモデルはより賢いです。
「メッセージを送信」というメッセージが表示されると、私たちの大モデルが正常に動作していることを示しています。入力を待っています。
質問をしてみましょう。
もしかしたら、友達の中には「ウェブ上やサードパーティのクライアントで呼び出すにはどうすればいいですか?」と尋ねる人もいるかもしれません。
次回お会いしましょう。