|
DeepSeekの影響は科学研究の分野にも及んでいます。 最新ニュース:同済大学は、Baidu AI Cloud Qianfan Large Model Platform を通じて DeepSeek-R1/V3 シリーズ モデルにアクセスし、使用しています。 浙江大学、北京大学、清華大学などの著名な大学も、モデルを統合してインテリジェントエージェントを起動したり、「初心者からエキスパートまで」などの実践的なコースやユーザーマニュアルを作成したりして、繰り返し話題になっています。 Nature 誌は DeepSeek を賞賛する記事をいくつか発表しており、オープンソース、低コスト、導入の容易さなどの利点により、多数の科学者が DeepSeek に群がり、科学 AI ツールの中でも万能ツールとなっていると指摘しています。 私たちが認識しているのは、大規模モデルが科学研究においてこれまで以上に重要な役割を果たしているということです。 DeepSeek R1 はリリース以来、Hugging Face で 400 万回近くダウンロードされ、チャートのトップを占めています。 しかし、利用率の高まりは、計算能力の需要の爆発的な増加にもつながります。モデル自体の安定性と使いやすさへの課題に加え、従来の研究機関は、計算リソースの断片化や人材育成の遅れといった問題にも直面しています。 春節期間中、AI 業界チェーン全体がモデルの安定した運用をサポートするために積極的に動員されたことがわかりました。 しかし、科学研究環境では、データの正確性、プライバシー、セキュリティ、モデルの信頼性、安定性、使いやすさに対する要件が厳しいため、DeepSeek のような大規模なモデルを科学研究に実際に適用するのは非常に困難です。 モデルの有用性といった問題は、すべての研究者がAIに関する高度な技術的知識を持っているわけではないこと、また大規模なモデルの設定方法を学ぶ時間がないために生じます。研究者はモデルの操作方法を学ぶのに多くの時間を費やす必要があり、その結果、中核となる研究課題に集中できなくなり、研究効率に深刻な影響を与える可能性があります。 さらに、これはモデル自体の課題に過ぎず、システム上の問題もいくつかあり、その中で最も顕著なのはコンピューティング能力と人材です。 コンピューティングパワーは「飢餓と浪費」という二つの問題に直面しています。研究機関は、企業と同等のリソースをAIインフラの構築に投入することができません。同時に、コンピューティングリソースは分散化しており、異なる機関にまたがる様々な機器の利用を効果的に統合・調整することが困難で、研究プロジェクト全体の進捗に影響を与えています。そのため、科学者がオンラインでコンピューティングパワーを要求する場面を頻繁に目にします。スタンフォード大学のフェイフェイ・リー氏でさえ、自身のチームには十分なコンピューティングパワーが不足していることを明らかにしています。 人材育成の遅れ。急速な技術進歩により、産業界ではAI人材が不足しており、企業は人材獲得のために高額な給与に頼っています。一方、科学研究においては、専門的な研究知識と大規模モデリング技術の習得の両方を兼ね備えたマルチスキルな専門家はさらに稀です。 インフラは技術研究の礎です。十分な研究インフラがなければ、優秀な人材の確保が難しく、技術開発の余地も限られてしまいます。設備を運用できる人材が不足すれば、インフラは本来の役割を果たせず、上位モデルの開発にも悪影響を及ぼします。 このサイクルが続くと、科学研究環境における大規模モデルの適用はさらに困難になり、時間がかかるようになるでしょう。 したがって、今日この行き詰まりをいかに打破するかは、さらに緊急かつ困難です。 AI 研究のための新しいインフラストラクチャ: ライフサイクル全体をサポートするコンピューティング能力を中核に据えています。最近のニュースの洪水の中で、AIコンピューティングパワー業界における1つの開発が大きな注目を集めています。 崑崙チップの800万枚規模のカードクラスターが点灯に成功し、中国で初めて自社開発した1万枚規模のカードクラスターが正式に点灯した。この数を3万枚に拡大する計画がある。 その驚異的なパフォーマンスに誰もが驚嘆し、メモリ容量は同カテゴリーの主流GPUよりも20%~50%も高いことが注目されました。MoEアーキテクチャとの互換性が高く、8ビット推論をサポートしたため、8基のGPUを搭載した1台のマシンで本格的な671Bモデルを実行できました。 これにより、Kunlun Coreは類似製品と比較して導入が容易になり、運用コストを大幅に削減し、DeepSeek-V3/R1の全バージョンにおける推論タスクを容易に完了できます。さらに、Kunlun Core P800は、DeepSeekシリーズのMoEモデルの大規模学習タスクにおいて非常に優れたパフォーマンスを発揮し、MLAやマルチエキスパート並列処理などの機能を完全にサポートしています。わずか32ユニットでフルパラメータモデル学習をサポートし、継続的なモデル学習とファインチューニングを効率的に促進します。 一方、研究チームはエネルギー効率比における利点にも注目している。 汎用 GPU と比較して、コンピューティング能力単位あたりの消費電力を 40% 削減できるため、研究チームは従来の GPU クラスターの電力ボトルネックを克服できます。 清華大学インテリジェント産業研究センターによると、Kunlun P800チップを搭載した同センターのコンピューティングクラスターは、数千億のパラメータを持つモデルのトレーニングサイクルを28日から19日に短縮することに成功し、 300万元以上の電気代を節約した。 さらに、チップは命令セットアーキテクチャからコンパイラツールチェーンまで完全に独立した知的財産システムを備えているため、スタック全体を制御でき、科学研究アプリケーション中のデータセキュリティを確保できます。 たとえば、北京フロンティアコンピューティング研究センターが Kunlun Core をベースに構築した連合学習プラットフォームは、医療画像分析の分野で複数機関のデータの共同トレーニングを実現し、プライバシーコンプライアンス要件を完全に満たしながらモデルの精度を 12% 向上させました。 自社開発のチップを使用してコンピューティング クラスターを構築することが、トレーニング コストやデータ セキュリティなどの問題を解決できるため、行き詰まりを打破する鍵となる可能性があることは明らかです。 しかし、これほど多くの大学が百度 AI クラウドとの協力を選択した理由は、そこに Kunlun Chip が導入されているからだけではなく、科学のための完全な AI ソリューションがあるからでもあります。 フルスタック技術開発における長年の経験と数多くのトップ大学とのコラボレーションを活かし、次のようなソリューションを開発しました。 これには、Kunlun Core P800 チップ、Baige 異種コンピューティング プラットフォーム、PaddlePaddle ディープラーニング フレームワーク、Qianfan 大規模モデル プラットフォームが含まれます。 これまで、この点は体系的に分析されていませんでした。今日は、一つずつ分析し、そこから何を学び、何のインスピレーションを得られるかを見ていきましょう。 まず、Kunlun Chip P800に統合されたマルチカードクラスタは、AIインフラストラクチャの礎です。強固で自立した基盤こそが、大規模モデル技術の継続的なイテレーションとエコシステムの繁栄を推進するのです。 第二に、Baigeヘテロジニアス・コンピューティング・プラットフォームは、コンピューティングパワーのハブ、あるいはコーディネーターとして捉えることができます。研究環境における複雑かつ多様なコンピューティングパワーの需要に応えるため、このハブは特に重要になります。予測スケジューリングなどの運用を通じて、コンピューティングリソースの効率的な調整を実現し、コンピューティングパワーの利用効率の向上、コスト削減、そして研究の進展の加速に大きな効果を発揮します。 上海交通大学AI研究所にBaigeプラットフォームを導入した後、GPU使用率は35%から72%に増加し、タスクキューイング時間は60%短縮され、モデルのトレーニング効率が大幅に向上しました。 科学研究におけるコンピューティング リソースの断片化という問題点に対するこのソリューションは、アーキテクチャ アルゴリズムとサービス モデリングにおける彼の革新から生まれました。 アーキテクチャ面では、柔軟で弾力性のあるコンピューティング電力供給ネットワークを構築します。物理層はKunlunチップ、NVIDIA、AMDなどのさまざまなコンピューティングチップと互換性があり、リソース層はコンテナ化されたコンピューティングユニットを提供し、サービス層はKubernetesやSlurmなどの複数のスケジューリングシステムをサポートします。 アルゴリズム レベルでは、そのインテリジェント スケジューリング アルゴリズムには 3 つの革新があります。強化学習に基づく動的リソース予測モデルは、コンピューティング パワー需要の変動を 24 時間前に予測できます。クロス クラスタ タスク移行テクノロジは、グローバルな負荷分散を実現します。異種リソース対応スケジューラは、さまざまな種類のコンピューティング タスクを最適なハードウェアの組み合わせに正確に割り当てることができます。 サービスモデルに関しては、「科学研究用コンピューティングパワーバンク」というパラダイムを構築しました。これにより、機関はオンデマンドかつ柔軟な供給体制でコンピューティングパワーにアクセスできるようになります。例えば、浙江大学の重点研究室では、この手法を用いて気象ビッグデータモデルの反復処理を予定より3か月早く完了しました。 さらに、技術の発展に伴い、Baigeも継続的にアップデートとイテレーションを行っています。例えば、DeepSeekの推論機能と連携した機能として、オンライン推論サービスのライフサイクル全体管理、柔軟なスケーリング機能、自社開発のフレームワーク推論加速技術、包括的な運用保守監視システムなどを提供しています。 さらに、ツールチェーンとコミュニティ属性を組み合わせた、中国初のオープンソースの業界グレードのディープラーニング プラットフォームである PaddlePaddle ディープラーニング フレームワークがあります。 基本モデル、ツールコンポーネント、そして応用事例からなる3層リソースシステムを構築することで、多くの大学や開発者の研究効率を向上させました。中国科学技術大学の量子コンピューティングチームは、PaddlePaddle量子機械学習スイートを基盤として、量子化学シミュレーションの高速化に成功し、従来の手法と比べて2桁も高い計算効率を達成しました。 しかし、このような大規模なリソーススイートを立ち上げる能力は、Baidu の継続的な育成とノウハウの蓄積にも関係しています。 Baidu PaddlePaddle は、力学や数学、材料化学、天気予報、生物医学などの最先端分野を探求し続けており、特に生物学コンピューティングの分野で顕著な存在感を示しています。 現在までに、Baidu は Wenxin 大規模モデルと生物学的コンピューティング大規模モデルを網羅した完全な PaddleHelix ベースの生物学的コンピューティング プラットフォームを構築し、小分子、タンパク質/ペプチド、RNA などのシナリオでの AI 技術の応用を模索してきました。 2023年5月2日、権威ある国際学術誌「ネイチャー」は、百度(バイドゥ)とその協力機関による生物計算分野の研究成果「最適化mRNA設計アルゴリズムによる安定性と免疫原性の向上」を掲載しました。この論文では、mRNA配列最適化のためのLinearDesignアルゴリズムが提案されています。中国のテクノロジー企業が提携機関として初めてネイチャーに論文を掲載した事例です。 DeepSeek と Wenxin のモデルがオープンソース化を選択するケースが増えるにつれ、PaddlePaddle の価値がますます明らかになります。 オープンソースは研究成果の信頼性を確保し、科学的成果の広範な普及と共有を促進します。他の研究者は既存の研究を複製することで改良・拡張し、技術革新と反復の流れを加速させます。 たとえば、PaddlePaddle フレームワークをベースに大学が開発したリモートセンシング画像解釈システムでは、コミュニティのコラボレーションによる継続的な最適化を通じて、作物分類タスクの精度が 89% から 96% に向上しました。 もう一つの選択肢は、ワンストップAIサービスプラットフォームであるQianfan Large Model Platformです。これは、モデルの開発、トレーニング、展開、監視を含むフルプロセス管理システムを備えた、熟練したモデル専門家です。 私たちが使い慣れているModelBuilderプラットフォームは、自社のニーズに合わせて大規模モデルを開発・展開するために用いられます。これは実際には、データ処理、モデルチューニング、モデル評価、量子化を含む体系的なプロジェクトです。企業にとっては非常に困難であり、産業界での実務経験が不足している研究機関や大学にとってはなおさらです。 ModelBuilderは包括的なツールチェーンを提供し、大学がそれぞれの研究ニーズに合わせてモデル性能を徹底的に最適化することを可能にします。現在、このプラットフォームの大規模モデルマトリックスは、DeepSeek-R1、DeepSeek-V3、Wenxinといった大規模モデルをカバーしているほか、vLLM、LMDepoy、TensorRT-LLM、SGLangといった主流の推論フレームワーク向けの高性能モデルホスティングもサポートしており、大学が柔軟にモデルを開発・展開できるよう支援しています。 開発と展開の前に、研究チームが適切な大規模モデルを選択するのにも役立ちます。 インテリジェント評価モジュールは50以上の定量指標を統合しています。南京大学での分子動力学研究では、研究者はプラットフォームのA/Bテスト機能を利用して最適な力場予測モデルを迅速に選択し、開発サイクルを40%短縮しました。 要約すると、Baiduの技術展開はコンピューティングパワーを中心に展開され、ライフサイクル全体にわたるフルスタックの技術サポートを提供しています。さらに、Baiduは業界における強みを活かし、人材育成と科学研究およびイノベーションの促進に取り組んでいます。 例えば、「Pinecone Program」では5,000人以上のAIエンジニアリング人材を育成し、学生はトップカンファレンスで300本以上の論文発表に参加し、インテリジェントな天文データ処理や古生物学のデジタル再構築など20以上の革新的プロジェクトを育成しています。 さらに、清華大学、北京大学、復旦大学、上海交通大学、蘭州大学など多くの大学と提携し、「PaddlePaddle AI for Science Frontier Lecture Series」と「PaddlePaddle AI for Science Code Introduction and Practical Application」という2つのコースを提供しています。 当社は清華大学と共同で「東部」インテリジェントコンピューティングセンターを設立し、2,000枚以上のカードを備えた崑崙チップクラスターを展開しました。また、上海交通大学と共同で、中国初のAI for Science科学データ用のオープンソースプラットフォームを構築しました。さらに、北京大学と共同で「小北学長」インテリジェントエージェントを開発するなど、さまざまな取り組みを行っています。 ... ご覧のとおり、Baidu の AI 科学への取り組みは包括的で、フルスタック技術から人材育成、基盤とモデルからアプリケーションまですべてを網羅し、モデルのライフサイクル全体を網羅しています。 より広い業界において、百度の事例はAI研究のための新たなタイプのインフラストラクチャを象徴しています。その中核となるロジックは、コンピューティング能力を孤立したリソースからインテリジェントな生産性ハブへとアップグレードし、フルスタックのテクノロジーチェーンを通じて研究ワークフローを再構築することにあります。 この過程で、企業と大学の協力は新しいタイプの協力モデルを実証しました。 このコラボレーションは、単純なポイントツーポイントの接続、つまり特定のプロジェクトにおける短期的なコラボレーションではなく、むしろ三次元的、動的、かつ多様な性質を示しています。 大学の人材プールや専門データ、企業のコンピューティング能力や業界レベルのアルゴリズムなど、それぞれの強みを活用し、大規模モデルの革新と応用におけるさまざまな課題に共同で取り組んでいます。 同済大学と百度AIクラウドのコラボレーションはその好例です。 同済大学は国立の重点大学として、一連の国家の重大な専門科学研究課題と工学研究使命を担っています。 同済大学は、マルチモーダル大規模モデル、機械自律知覚、マルチエージェントシステム、具現化インテリジェンスなどの最先端分野における徹底的な探究を求めており、Baidu AI Cloud はこれに応えるため、包括的な技術サポートを提供しました。 百度崑崙P800チップ、百度百歌AI異機種コンピューティングプラットフォーム、百度スマートクラウド千帆大型モデルプラットフォーム、百度スマートクラウド易見大型モデルプラットフォームをベースとし、完全国産ベースの具現化されたインテリジェント大型モデル開発プラットフォームを構築し、同済大学の特色ある模範的なソフトウェアカレッジの建設と、教育部ソフトウェア技術工学研究センターのスマートシティ認識と計画の重点工学プロジェクトに貢献します。 BaigeオールインワンマシンはKunlun P800チップを搭載し、DeepSeek R1/V3の全モデルをスタンドアロン環境で導入できます。軽量設計と極めて高いコスト効率というニーズを満たします。このソリューションは8ビット推論をサポートし、DeepSeek全モデルシリーズと完全な互換性を備えており、ワンクリックで簡単に導入でき、すぐに使い始めることができます。 この協力は、同校のマルチエージェントシステム技術の突破に重要な役割を果たし、同校のマルチエージェント強化学習アルゴリズム、ドメインカスタマイズ型大規模モデル、協調学習アルゴリズム、インテリジェントエージェントアルゴリズムのトレーニング効率を効果的に向上させ、さまざまなシナリオにおけるロボット、ドローン、マルチエージェントデバイスなどのインテリジェント端末に力を与えます。 新しい AI 研究インフラストラクチャの構築は、本質的に研究パラダイムの根本的な革命です。 科学のためのAI:AlphaFoldからDeepSeekまでDeepSeek R1 モデルは、低コストと高性能という大きな利点により、世界中の科学研究分野で急速に人気が高まり、科学者から熱烈に求められています。 たとえば、新しい研究の方向性を探ったり、日々のデータを処理し、科学文献を選別して整理したりするために使用できます。 AI for Science の開発を振り返ると、これほど幅広い注目と議論を集めたのは AlphaFold のときが最後でした。 しかし、AlphaFoldは生物学的データの価値抽出に重点を置いています。その中核的な貢献は、タンパク質や高分子の構造予測の効率を大幅に向上させることにあり、これは医薬品開発や遺伝子編集といった多くの最先端分野に大きな影響を与えています。 現在、このモデルの大幅に強化された汎用機能と、低コストで障壁のない導入特性により、科学研究パラダイム全体が強化されています。 大規模モデルはもはや特定分野のデータ処理や研究に限定されず、複数の分野に広く応用可能です。物理学における複雑なシミュレーション計算、化学における分子反応予測、社会科学におけるデータ分析や予測など、大規模モデルは独自の利点を最大限に活用できます。 この汎用性により、さまざまな分野の研究者がその機能を簡単に活用して研究を行うことができ、分野間の技術的な障壁が取り除かれ、学際的な研究の発展が促進されます。 同時に、低コストで参入障壁がゼロであるため、より多くの研究チーム、特に比較的リソースが限られている研究機関や小規模な研究室が、高度な AI テクノロジーがもたらす利便性を享受できるようになります。 DeepSeekによる科学分野におけるAI活用の強化は、この分野における新たな段階を示しています。これは、研究サイクル全体を通じて、モデル化機能とサービスに新たな課題をもたらします。 例えば、安定した計算能力と高品質な専門データは不可欠です。膨大なデータと様々な分野からの複雑な問題に直面する中で、モデルは迅速に学習・適応し、正確かつ効果的なソリューションを提供する必要があります。データの収集、処理、分析からモデルの学習、検証、そして応用に至るまで、研究サイクル全体を通して、各段階でより高い効率性と品質保証が求められます。 Baiduはこれらの課題に対するソリューションを提供します。フルスタックの技術力を活用し、これらの困難な問題や主要なボトルネックの解決を強力にサポートし、科学研究とイノベーションの継続的な進歩を推進します。 AlphaFoldからDeepSeekまで、人工知能技術の発展は科学研究の未来を変革しつつあります。科学のためのAIをめぐる競争はまだ始まったばかりであり、最先端技術におけるAIの新たなマイルストーンを達成するには、より多くの国内プレーヤーとより大規模なエコシステムが必要です。 |
Nature 認定の DeepSeek を万能研究ツールとして活用:国内の大学は大規模モデルをどう活用できるのか?
関連するおすすめ記事
-
Tencent Yuanbao PC版の実世界テスト:本格的なDeepSeekを搭載したAI PCです。
-
使いやすい分子動力学シミュレータLAMMPS: npt温度制御によるFCC Cu融点の推定
-
ACL 2024に選出されました!Wang Xiang率いるUSTCチームは、タンパク質データとテキスト情報のクロスモーダル解釈を可能にするタンパク質テキスト生成フレームワークProtT3を提案しています。
-
Cyan Creative は、感情と温かさを表現する完全に人間のようなロボット、OrcaⅠ を発表しました。
-
オンラインチュートリアル | GPT-4V に勝てますか? 強力なオープンソースのマルチモーダル大規模モデル LLaVA-OneVision が正式にリリースされました!
-
アジェンダ紹介 | オープンソース・ビッグデータ・フォーラム