618ZXW

DeepSeek R1 のローカル展開の初心者向けガイド!

オリジナルコンテンツ。玉ねぎ、生姜、ニンニクは使用していません。(Datawhale)

Datawhaleのヒント

著者: No Onions, Ginger, and Garlic、Datawhaleメンバー

2日前の記事「ZoteroがDeepSeekと統合して文献を自動読取、チュートリアルを公開!」で、学習者からモデルのローカル展開に関するチュートリアルがあるかどうかの質問がありました。本日、初心者向けバージョンを公開しました!

ディープシーク-R1

DeepSeekは、deepseek-r1 671Bの完全な重みと、いくつかの小規模な蒸留モデルをオープンソース化しました。論文に掲載されている評価表によると、蒸留モデルqwen-14bはOpenAI-o1-miniと同等の性能を示しています。

次に、LMStudio を使用して、DeepSeek-R1-Disstill シリーズのモデルをローカルにデプロイし、Cursor などの AI IDE にアクセスするための API をデプロイします。

LMスタジオ

LM Studioは、大規模モデルをローカルにデプロイするための強力なツールです。データのプライバシーとセキュリティを確保するためにローカライズされた操作性を重視したLM Studioは、機密データを扱うシナリオに特に適しています。Windows、macOS、Linuxシステムで動作し、クロスプラットフォームでの使用をサポートしているため、多様なユーザーのニーズに対応します。初心者から経験豊富な開発者まで、LM Studioは柔軟なツールとユーザーフレンドリーなエクスペリエンスを提供し、機械学習プロジェクトを加速させます。

ステップ1:LMStudioをダウンロードする

ユーザーは、Windows、Linux、macOS をサポートする LMStudio 公式 Web サイトから対応するインストール パッケージをダウンロードできます。

📌

Github リンク: https://github.com/lmstudio-a...

LMStudio公式サイト:https://lmstudio.ai/

注: バージョン0.3.9をダウンロードしてください。このチュートリアルはこのバージョンにのみ適用されます。

ステップ2: モデルのダウンロード元とモデルのダウンロードパスを変更する

LMStudioのデフォルトのモデルダウンロードソースはHugging Faceプラットフォームですが、周知の理由により、国内でアクセス可能なHFミラーソースを設定する必要があります。そのためには、2つのファイルを修正する必要があります。

ステップ2.1: モデルのダウンロードソースを変更する

  • まず、LMStudioのダウンロードとインストール場所を開きます。ダウンロードした場所を忘れた場合は、デスクトップ上のLMStudioアイコンを右クリックし、「プロパティ」をクリックして、「ファイルの場所を開く」をクリックしてください。

  • 以下に示すように、 2 つのファイルを変更する必要があります。

📌

  • LMStudio ファイルの場所は、\resources\app\.webpack\renderer\main\_window.js です。
  • LMStudio ファイルの場所:\resources\app\.webpack\main\index.js

main_window.js ファイルは非常に大きいため、Windows の組み込みテキストエディタで開くと動作が遅くなる可能性があります。VS Code で開き、すべてのファイルを置き換えることをお勧めします。

https://huggingface.co/

https://hf-mirror.com/

https://huggingface.co/ のすべてのインスタンスを https://hf-mirror.com/ に置き換えて、LMStudio を再度開きます。

ステップ 2.2: モデルをダウンロードし、ダイアログを開始します。

  • 変更後、LMStudioを再度開きます。まず、左側の虫眼鏡ボタンをクリックし、検索ボックスで「r1」を検索し、下の検索結果をクリックしてダウンロードしてください。

注: ここに検索結果がない場合は、前の手順に戻って置換が完了したかどうかを確認するか、コンピューターのネットワークを確認してください。

  • その後、LMStudioのメインインターフェースで会話をすることができます。ここでは、deepseek-r1-distill-qwen-7bを使って、定番の質問「イチゴにはrがいくつありますか?」をしてみました。そして、正解しました!

私のデバイスは、3060グラフィックカードと6GBのVRAMを搭載したノートパソコンです。LMStudioがモデルをロードする際にVRAMが不足すると、一部のパラメータをロードするためにメモリが使用されます。そのため、VRAMが限られている場合でも、ローカルデプロイメントは可能です。

ステップ2.3: R1 APIをデプロイする

  • LMStudioのメインインターフェースの2番目のボタンをクリックすると、開発者インターフェースに移動します。ここでAPIデプロイメントサービスを開き、「設定」で「すべて開く」を選択してください。こうすることで、LMStudioをWindowsにデプロイした場合でも、WSLからサービスにアクセスできます。

結論

このチュートリアルは、DDoS 攻撃によって DeepSeek が使用できなくなったときに役立つと思います。

いいね (3件のいいね!)↓