618ZXW

GMI Cloud は、NVIDIA H200 をベースにした DeepSeek シリーズ モデルの提供を開始しました。

DeepSeekは1月下旬、OpenAIのo1モデルに匹敵する性能を持つ推論モデル「R1」をリリースしました。o1よりもはるかに安価であるだけでなく、オープンソースであり、APIもo1よりもはるかに安価です。リリースされるやいなや、AIコミュニティで大きな注目を集めました。

1週間後の大晦日、DeepSeekはマルチモーダルAIモデルJanus-Proをオープンソースとして公開しました。これはDeepSeek-LLM-1.5b-baseとDeepSeek-LLM-7b-baseをベースとしたモデルです。この一連のモデルにおいて、Janus-Pro-7BはGenEvalおよびDPG-Benchベンチマークテストにおいて、テキスト生成、意味理解、知識質問応答といった主要タスクにおいてOpenAIのDALL-E 3およびStable Diffusionを凌駕する性能を示し、国内外のAIブームを最高潮に押し上げました。

DeepSeekがGitHubでオープンソース化された後、コードリポジトリは瞬く間に多くの開発者の注目を集め、短期間でスター数が10万を超えたと報じられています。コードの自動補完やインテリジェントな文書要約など、DeepSeekを基盤とした多くの二次開発プロジェクトが、金融、ヘルスケア、科学研究など、複数の分野で効率的に展開され、AIアプリケーションのイノベーションと実装を力強く推進しています。

このプロセスにおいて、GMI Cloud 技術チームは、北米で最も強力な NVIDIA 社製量産型 GPU サーバー H200 をベースにした DeepSeek R1 の導入、適応、最適化をいち早く完了し、専用の DeepSeek-R1 推論エンドポイントを構築しました。

より多くのAI企業にサービスを体験していただくため、GMI Cloudは今週2日間の無料トライアルを開始します!下のQRコードをスキャンするだけで、すぐにトライアルへの参加資格が得られ、ワンクリックで導入が完了します!

技術的な詳細

● モデルプロバイダー: DeepSeek

● モデル名:DeepSeek-R1

● タイプ: チャットモデル

● パラメータ: 6850億

● 導入方法:専用エンドポイント(動的に拡張可能)

● 量子化方式:FP8

● コンテキストの長さ: このモデルは、1 回のセッションで 128,000 トークンを処理できます。

さらに、GMI Cloud では次のモデルも提供しています。

● ディープシーク-R1-ディスティル-ラマ-70B

● ディープシーク-R1-ディスティル-Qwen-32B

● ディープシーク-R1-ディスティル-Qwen-14B

● ディープシーク-R1-ディスティル-ラマ-8B

● ディープシーク-R1-ディスティル-Qwen-7B

● ディープシーク-R1-ディスティル-Qwen-1.5B

アジャイル展開

1. GMIクラウドとの接続を確立する

2. モデルパッケージを作成する

3. 展開

「\_\_name\_\_ == '\_\_main\_\_'の場合:

クライアントを初期化する

cli = クライアント()

\# テンプレートからアーティファクトを作成する

アーティファクト\_id = create\_artifact\_from\_template(cli, “deepseek\_r1\_template\_001”)

タスクを作成して開始します。

タスクID = create_task_and_start(cli, アーティファクトID)

通話チャット完了

print(call\_chat\_completion(cli, task\_id))”

SDK の展開例

https://github.com/GMISWE/pyt...\_r1.py