ele

ele

ele

来羊毛啦,腾讯云Cloud Studio大羊毛!!!一

更正、筆者のテストによると、Cloud Studio の高性能基本版は何らかの理由で外部サービスをサポートしていません。つまり、デフォルトでは彼のコマンドラインの下でのみ対話操作が可能です。
以下の図の通り:
EC48EC26-1A07-4B30-86E6-E3DBAA0D61D2

API サービスは提供できませんが、他のマシンおよび hai マシンは筆者のテストで全てサポートされています。

Tencent Cloud は良心的なクラウドであり、この波の福利は絶対に逃せません。
今日は私たちの主役を紹介します。
腾讯云 Cloud Studio

概要:

Cloud Studio はブラウザベースの統合開発環境(IDE)で、開発者に途切れることのないクラウドワークステーションを提供します。ユーザーは Cloud Studio を使用する際、インストールする必要がなく、いつでもどこでもブラウザを開くだけでオンラインプログラミングが可能です。

5B3BB8EB-A7B2-4F0E-849B-051DC3EFBA55

Cloud Studio はオンライン IDE として、コードハイライト、自動補完、Git 統合、ターミナルなどの IDE の基本機能を含み、リアルタイムデバッグやプラグイン拡張もサポートしており、開発者がさまざまなアプリケーションの開発、コンパイル、デプロイを迅速に行うのを助けます。
オンライン IDE インターフェース
image

より詳細な紹介はここでご覧いただけます公式文書

なぜ言うのかというと、Tencent Cloud は開発者に多くの無料体験時間を提供しているからです。
最初の頃は 3000 分の時間を提供していました(一般用)、
高性能では 10000 分の時間を提供し、現在は一般用の時間が直接 50000 分に増えました。さて、無駄話はこれくらいにして、始めましょう。
今日のチュートリアルは、Cloud Studio を使って ollama を通じて大モデルをデプロイする方法を教えます。

第一歩、腾讯云アカウントを登録します。これは特に言うことはなく、指示に従って登録し、実名を登録すれば大丈夫です。速度はとても速いです。
第二歩、私たちの主役である Tencent Cloud Cloud Studioを開きます。
インターフェースは以下の通り:

CA4FED14-715E-420D-A931-454F4706400F

第三歩、新しいスペースを作成します。
図のように、まず左側のメニューをクリックし、高性能スペースを選択し、その後「新規作成」をクリックします。

8DFC11C6-2F58-4916-8220-4644625E531B

もしかしたら疑問に思う人がいるかもしれませんが、上のバナーには ollama を直接作成できると書いてあり、最も人気のある deepseek だと言っています。なぜわざわざ ollama を使って作成する方法を説明する必要があるのでしょうか?これは「魚を与えるよりも釣り方を教える方が良い」という考えからです。もし ollama のインストールができれば、その後他の大モデルもインストールして使用できるようになります。さて、続けましょう。

89C5498A-D9D3-47E3-9536-3F3D13EFDD7E

適切な仕様を選択し、「次へ」をクリックすると、マシンの作成が始まります。数分かかるかもしれませんが、その後自動的に IDE ページにリダイレクトされます。
今日はまたリソースが放出されたので、私は左下の高性能スペースを直接選択しました。結局、これは GPU サーバーであり、無料体験の GPU サーバーです。

第四歩、ollama をインストールします。
その後、エディタのメニューバーから「ターミナル」==>「新しいターミナル」を選択します。

18F5AC3E-5DA1-4DBB-8489-B67060BD9825

エディタの右下部分が開いたターミナルです。ここで通常の Linux コマンドを入力できます。ollama という大モデルデプロイフレームワークをインストールしましょう。1 つのコマンドで ollama をインストールできます。

2A7E44FE-E7A4-440B-A89E-090FBA70B1F6

curl -fsSL https://ollama.com/install.sh | sh
上記のコマンドをターミナル画面にコピーして、Enter を押すと自動インストールが始まります。

少し待つと、インストールが成功します。
インターフェースは異なる場合がありますが、コマンドは同じです。
インストールが成功したら、ターミナルに ollama --help と入力します。
ネットワークの問題で、私はすでにダウンロード済みのものを直接使用します。

A30426E7-BF04-44D4-9372-47AC56C35635

私たちがよく使うコマンドは ollama run xxxx で、xxx モデルを一括ダウンロードして実行します。
ollama stop xxxx で xxx 大モデルの実行を停止します。
ollama list でダウンロード済みの全ての大モデルをリスト表示します。
ollama ps で実行中の大モデルをリスト表示します。
ollama rm xxxx で大モデルを削除します(まず実行を停止してから削除します)。
その他の情報は文書を参照してください。
ollama がサポートするモデルは主流のオープンソース大モデルが全てサポートされています。具体的なモデルは公式サイトで確認できます。

D0226684-8F3F-4FC8-9E63-9765E69D46A9

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!一

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!二

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!三

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!四

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。