ele

ele

ele

来羊毛啦,腾讯云Cloud Studio大羊毛!!!二

更正、筆者のテストによると、Cloud Studio 高性能基礎版は何らかの理由で外部サービスをサポートしていません。つまり、デフォルトでは彼のコマンドラインの下でのみ対話操作を行うことができます。
以下の図:
EC48EC26-1A07-4B30-86E6-E3DBAA0D61D2

API サービスを提供できませんが、他のマシンおよび hai マシンは筆者のテストでサポートされています。

上篇文章来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!
今日は腾讯云 cloud studio を使って無料で私たちの deepseek r1 大モデルを構築します。始めましょう。

  1. ollama のモデルページを開く
    image
    モデルページには ollama がサポートするワンクリックインストールモデルがリストされています。例えば、私たちが deepseek-r1 をインストールする必要がある場合、このリンクをクリックするだけで、モデルの具体的なページを開くことができます。適切なものがない場合は、検索バーにモデルのキーワードを入力して検索できます。

  2. モデルの詳細ページ
    image
    ここから、現在サポートされているモデルには 1.5b、7b、8b、14b、32b、20b、671b などがあることがわかります。必要なモデルに直接切り替えるだけです。以下の図のように。

image
私たちは 32b のモデルをインストールすることにします。すべてのモデルがリストされていない場合は、図に示された「すべて表示」をクリックできます。

  1. モデルのインストール
    コマンドをコピーし、その後 cloud studio のターミナルコマンドボックスにコマンドを入力して、大モデルのインストールと実行を行います。ちなみに、モデルを取得するだけでなく、実行を取得する場合は、
    ollama pull xxx を使用できます。ollama は hf のモデルもサポートしていますが、変換が必要です。ここでは詳細な説明はしません。
    ollama run deepseek-r1:32b

image

528FFB03-E1E5-457A-A1DB-699855DB64A7
エンターを押してダウンロードが完了するのを待ちます。
この時、待機時間が少し長くなります。結局、インターネットから直接このモデルをダウンロードするので、モデルが大きいほどダウンロード時間が長くなりますが、理論的にはより大きなモデルはより賢いです。
「メッセージを送信」というメッセージが表示されると、私たちの大モデルが正常に動作していることを示しています。入力を待っています。

image

質問をしてみましょう。

image
もしかしたら、友達の中には「ウェブ上やサードパーティのクライアントで呼び出すにはどうすればいいですか?」と尋ねる人もいるかもしれません。
次回お会いしましょう。

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!一

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!二

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!三

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!四

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。