|
オリジナルコンテンツ。玉ねぎ、生姜、ニンニクは使用していません。(Datawhale) Datawhaleのヒント著者: No Onions, Ginger, and Garlic、Datawhaleメンバー 2日前の記事「ZoteroがDeepSeekと統合して文献を自動読取、チュートリアルを公開!」で、学習者からモデルのローカル展開に関するチュートリアルがあるかどうかの質問がありました。本日、初心者向けバージョンを公開しました! ディープシーク-R1DeepSeekは、deepseek-r1 671Bの完全な重みと、いくつかの小規模な蒸留モデルをオープンソース化しました。論文に掲載されている評価表によると、蒸留モデルqwen-14bはOpenAI-o1-miniと同等の性能を示しています。 次に、LMStudio を使用して、DeepSeek-R1-Disstill シリーズのモデルをローカルにデプロイし、Cursor などの AI IDE にアクセスするための API をデプロイします。 LMスタジオLM Studioは、大規模モデルをローカルにデプロイするための強力なツールです。データのプライバシーとセキュリティを確保するためにローカライズされた操作性を重視したLM Studioは、機密データを扱うシナリオに特に適しています。Windows、macOS、Linuxシステムで動作し、クロスプラットフォームでの使用をサポートしているため、多様なユーザーのニーズに対応します。初心者から経験豊富な開発者まで、LM Studioは柔軟なツールとユーザーフレンドリーなエクスペリエンスを提供し、機械学習プロジェクトを加速させます。 ステップ1:LMStudioをダウンロードするユーザーは、Windows、Linux、macOS をサポートする LMStudio 公式 Web サイトから対応するインストール パッケージをダウンロードできます。 📌 Github リンク: https://github.com/lmstudio-a... LMStudio公式サイト:https://lmstudio.ai/ 注: バージョン0.3.9をダウンロードしてください。このチュートリアルはこのバージョンにのみ適用されます。 ステップ2: モデルのダウンロード元とモデルのダウンロードパスを変更するLMStudioのデフォルトのモデルダウンロードソースはHugging Faceプラットフォームですが、周知の理由により、国内でアクセス可能なHFミラーソースを設定する必要があります。そのためには、2つのファイルを修正する必要があります。 ステップ2.1: モデルのダウンロードソースを変更する
📌
main_window.js ファイルは非常に大きいため、Windows の組み込みテキストエディタで開くと動作が遅くなる可能性があります。VS Code で開き、すべてのファイルを置き換えることをお勧めします。 https://huggingface.co/ https://hf-mirror.com/ https://huggingface.co/ のすべてのインスタンスを https://hf-mirror.com/ に置き換えて、LMStudio を再度開きます。 ステップ 2.2: モデルをダウンロードし、ダイアログを開始します。
注: ここに検索結果がない場合は、前の手順に戻って置換が完了したかどうかを確認するか、コンピューターのネットワークを確認してください。
私のデバイスは、3060グラフィックカードと6GBのVRAMを搭載したノートパソコンです。LMStudioがモデルをロードする際にVRAMが不足すると、一部のパラメータをロードするためにメモリが使用されます。そのため、VRAMが限られている場合でも、ローカルデプロイメントは可能です。 ステップ2.3: R1 APIをデプロイする
結論このチュートリアルは、DDoS 攻撃によって DeepSeek が使用できなくなったときに役立つと思います。 いいね! (3件のいいね!)↓ |
DeepSeek R1 のローカル展開の初心者向けガイド!
関連するおすすめ記事
-
AIが「Black Myth: Wukong」のプロモーションビデオを生成しました... 見た後、言葉を失いました。
-
深センの街を歩く人型ロボットが海外で話題に! 超人的な歩行力で10メートル以上も連続歩行が可能。価格は10万元以下、2ヶ月以内に発売予定。
-
速報!クアルコムがインテルを完全買収へ
-
9月21日に厦門でお会いしましょう!
-
イーロン・マスクが、20万枚のカードを持つ新しいキング、新しいGrok3モデルを発表しました。
-
自動車業界最大の AI「ダークホース」である Geely 社が独自に開発した大規模音声モデルは、最先端 (SOTA) システムを 10% 上回り、トップに立っています。