|
データホエール 編集者のおすすめ: Datawhale が推奨します。 以下の記事は、Li Guojie 氏が執筆した Science & Technology Review からのものです。 [ 科学技術評論。 中国科学技術協会のジャーナル「科学技術評論」の公式アカウント ](#) 著者について:李国傑は、中国科学院計算技術研究所の研究員であり、中国工程院の院士です。彼の研究分野は、コンピュータアーキテクチャ、並列アルゴリズム、人工知能、ビッグデータ、コンピュータネットワーク、情報技術開発戦略などです。 DeepSeekの最近の登場は、世界のテクノロジー分野に大きな旋風を巻き起こし、学界から産業界に至るまで、幅広い議論と深い考察を巻き起こしています。2025年科学技術評論第3号に掲載された李国傑院士による論文「DeepSeekが引き起こしたAI発展の道筋に関する考察」は、DeepSeekをめぐるAI発展の道筋の課題を深く分析しています。洞察力に富み、専門的で、刺激的な内容となっているこの記事は、読者の皆様のためにここに全文掲載いたします。 李国傑 1. DeepSeek が世界的な技術的衝撃を引き起こしたのはなぜですか? DeepSeekの登場は、人工知能(AI)開発の歴史における画期的な出来事です。DeepSeekは7日間でユーザー数が1億人を超え、ユーザー数の増加速度で世界記録を更新しました。同時に、半導体大手NVIDIAの株価は1日で17%急落し、時価総額は5,890億ドル減少しました。これは、米国上場企業として最大の1日損失となりました。DeepSeekの台頭は、「高い計算能力と多額の投資こそがAI開発の唯一の道」や「集積回路製造の優位性がAI技術の覇権に等しい」といった神話を打ち砕き、AI業界をアルゴリズムとモデルアーキテクチャの最適化に重点を置く新時代へと導きました。同時に、データの品質と規模を重視し、計算能力を合理的に向上させることも重視しています。さらに、DeepSeekの台頭は、中国のテクノロジー企業が「追随者」から「ルールメーカー」へと変貌を遂げ、世界で最も注目されている人工知能分野において、破壊的イノベーションによって欧米のAI覇権に挑戦し始めたことを示しています。 世界のAIリーダーはDeepSeekを採用し、その揺るぎない影響力を際立たせています。Microsoftは、Azure AI FoundryクラウドプラットフォームにDeepSeek R1モデルを追加することをいち早く発表し、開発者がクラウドベースのアプリケーションとサービスを構築できるようにしました。Amazon Web Services(AWS)、NVIDIA、AMDなどの企業も、その後、自社のAIサービスプラットフォームにDeepSeek V3およびR1モデルを導入すると発表しました。一部の政府による抵抗や一部のメディアによる悪意のある攻撃にもかかわらず、数億人のユーザーと多数の大企業が、その費用対効果と個人的な経験に基づいてDeepSeekを選択し、DeepSeekエコシステムに積極的に統合しています。DeepSeekの効率的で低コストな推論モデルとオープンソースのビジネスモデルは、AI業界の新たな潮流を牽引するでしょう。 DeepSeekのV3およびR1モデルは、モデルアルゴリズムとシステムソフトウェアの両方のレベルでの大きな革新により、広く人気を博しています。DeepSeek-V3は6,710億という驚異的なパラメータを誇りますが、独自のハイブリッドエキスパートモデル(MoE)アーキテクチャにより、各層には256のドメイン固有のルーティングエキスパートと1つの共有エキスパートがあり、1回の呼び出しでアクティブになるパラメータは約370億のみであるため、トレーニングの計算コストが大幅に削減されます。DeepSeekの改良されたマルチヘッド潜在的注意(MLA)メカニズムは、キー値キャッシュのオーバーヘッドを削減し、GPUメモリ使用量を他の大規模モデルの5%~13%に下げ、モデル効率を大幅に向上させます。DeepSeek-R1モデルは、従来の教師あり微調整(SFT)を放棄し、グループ相対ポリシー最適化(GRPO)を先駆的に採用し、強化学習を通じてベースモデルからの推論機能を直接刺激することで、データラベリングコストを大幅に削減し、トレーニングプロセスを簡素化します。 DeepSeekは真実を明らかにしました。推論モデルの開発は想像以上に簡単で、様々な業界に応用できるということです。DeepSeekによるこれらの発明は、初めて提案された独創的なイノベーションではありませんが、DeepSeekは困難な努力を重ね、先人たちの公開された成果を基に、技術の限界に挑戦し、新たな技術的高みに到達しました。 第三波人工知能の台頭を受け、米国政府、大手AI企業、そして投資コミュニティの間で、AI開発には高いコンピューティング能力が必要であり、現在、AIコンピューティングで最も強力なチップはNVIDIAのGPUであるという根本的な信念が生まれました。そのため、米国はGPUの販売をコントロールすることで、世界のAI分野を席巻できると考えています。トランプ大統領は就任からわずか2日後、AIインフラ構築に5,000億ドルを投資するスターゲートプロジェクトを立ち上げる法案に署名しました。米国政府が、AIコンピューティング能力の基盤強化こそが、世界のリーダーシップを維持する上で不可欠だと考えていることは明らかです。NVIDIAに代表される米国の大手AI企業は、実に恐るべき存在感と、いわば「張り子の虎」という側面を併せ持っています。恐れを知らない若い中国の科学者たちは、この「張り子の虎」に穴を開け、それが見た目ほど恐ろしくないことを世界に示したのです。DeepSeekの世界的な影響力は、真実を明らかにする力の証です。 2. 「スケーリングの法則」は限界に達したか? OpenAIは2020年1月、「ニューラル言語モデルのスケーリング則」と題する論文を発表し、「モデルのサイズ、データ量、計算リソースを増やすことで、モデルのパフォーマンスを大幅に向上させることができる」というスケーリング則を提唱しました。AI分野では、このスケーリング則は「努力は奇跡を生む」という意味で広く知られる「公理」と捉えられており、OpenAIなどの大手企業や米国のAI投資コミュニティは、これを勝利の方程式と捉えています。 しかし、スケールの法則はニュートンの法則のように何度も検証された科学的な法則ではなく、OpenAIのような企業が過去数年間に大規模モデルを開発する中で得た経験を帰納的にまとめたものです。科学研究の観点から見ると、それは技術開発の動向に関する推測であり、投資の観点から見ると、特定の技術の道筋への賭けです。人工知能は未来の技術の探求です。技術の道筋には複数の可能性があり、人工知能自体も多様な目標を持っています。探求の道には登るべき山が多く、山を登る道は一つではありません。信念や推測を科学的な公理として扱うことは、科学的な態度ではありません。近年の大規模モデルのトレーニングの実際の結果は、大規模モデルの性能の線形成長を達成するには、モデルサイズ、データ量、および計算能力の投入を数ヶ月ごとに倍増させるという高い指数関数的な増加が必要であることを示しています。 GPT-3からGPT-4にかけて、パラメータサイズは約10倍、学習に使用するGPU数は約24倍、総計算負荷は約70倍に増加しました。投資の急激な増加は、どんなに長く続くものではありません。大型民間航空機の速度や集積回路の周波数などは、いずれも適切な時期に停止しており、大規模モデルも例外ではありません。 「スケーリングの法則」の支持者は、リチャード・S・サットン氏の論文「苦い教訓」を、高い計算能力の追求の正当化としてしばしば引用する。「研究者たちは独創的なエンジニアリング設計を通じて性能向上を繰り返し試みてきたが、最終的には『計算能力の向上』という単純なアプローチを克服できなかった。歴史は、AI分野では常に汎用的な手法が優勢であることを示している」。しかし、サットン氏自身も過去2年間、「スケーリングの法則」について深く考察してきた。彼は、スケーリングの法則は確かにモデルの性能向上に効果的だが、あらゆる問題に対する万能薬ではないと指摘する。AIシステムには、強力な計算能力だけでなく、継続的な学習、環境への適応、複雑な状況の理解といった能力も必要であり、これらの能力は、単に計算能力を向上させるだけでは実現が難しい場合が多い。 しかし、スケールの法則が限界に達したと言うのは根拠がありません。人間の脳の神経接続の複雑さと比較すると、現在の人工ニューラルネットワークは少なくとも数百倍も複雑ではありません。ニューラルネットワークの規模をさらに拡大し、学習データの量を増やしても、投資に見合ったリターンが得られるかどうかは、まだ分かりません。GPT-5のリリースが遅れているという事実は、スケールアップの効果がもはや重要ではなくなったことを示唆しています。チューリング賞受賞者のヤン・ルカン氏や、元OpenAIのチーフサイエンティストであるイリヤ・スツケヴァー氏などは、スケールの法則が限界に達したと述べています。 DeepSeekの登場により、AIコミュニティは技術開発の方向性について真剣に考える必要に迫られました。高いコンピューティングパワーの追求に多額の投資を続けるべきか、それとも代替の道を模索し、アルゴリズムの最適化に重点を置くべきか、という問題です。DeepSeekの登場は、AIトレーニングモデルを、ブルートフォースに焦点を当てた大規模な開発段階から、システム最適化を重視した集中的な開発段階へと移行させたことを示しています。DeepSeekの成功は、AI開発におけるコンピューティングパワーの重要な役割を否定するものではありません。実際、トレーニングよりも推論に使用されるデバイスの方がはるかに多いため、推論に必要なコンピューティングパワーは、将来的に主要な需要となるでしょう。しかし、グリーン開発は遵守しなければならない基本原則であり、AIに必要なエネルギー消費を削減することは、間違いなくテクノロジーコミュニティの重要な目標となるでしょう。 3. 「汎用人工知能」(AGI) を開発するにはどのような道を選ぶべきでしょうか? 「人工汎用知能」は漠然とした用語であり、広く合意されていない。OpenAIが追求する人工汎用知能(AGI)もその一例であり、複数の領域にまたがる複雑な問題を人間レベルで処理できるAIの能力を指す。AIコミュニティには、「複雑な問題は簡単に解決できるが、単純な問題は難しい」というモラベックのパラドックスが存在する。この観点から見ると、複雑な問題を解決できるAIは必ずしもAI汎用性を持つわけではない。設計者が予期せぬ状況に対処できる能力こそが「汎用性」の条件であると考える人が多い。そのため、AI学術コミュニティは、知能システムが継続的に学習し、自己改善する能力に重点を置いている。AIの汎用性は、言語処理だけでなく、人間と同じように常識や日常の経験に基づいて外部の客観的世界と対話する能力にも反映されている。 人工知能(AI)は、人間の知能の特定の側面を体現し、それを凌駕するものです。科学技術分野において、「汎用性」という概念は常に相対的なものであり、一定の条件と範囲を前提としています。AIの限界を認識し、あらゆる問題を解決できるAIを盲目的に追求することは避けなければなりません。実際のニーズに基づき、比較的汎用性の高いAI技術を様々な産業に適用し、AI技術が一定の範囲内で具体的な成果を達成することに焦点を当てるべきです。汎用知能の実現は段階的なプロセスであり、特定の技術の発明によって突然実現するものではありません。AIの汎用性は過去2つの波と比較して大幅に向上しましたが、特定のアプリケーションでチューリングテストに合格することは、まだ段階的な成果に過ぎません。現在の技術は真の汎用知能には程遠いものです。 汎用技術と専用技術の競争は、技術開発における常套的な現象です。集積回路分野では、「汎用」技術と「専用」技術が10年ごとに交互に進化する「無本サイクル」が見られます。人工知能においては、「汎用から専用へ」か「専用から汎用へ」か、どちらの道が最終的に成功するかはまだ分かりません。おそらく最終的な結論は、汎用技術と専用技術の融合であり、専用マルチモデルアプローチの「垂直精緻化」と汎用大規模モデルの「水平展開」が補完し合い、インテリジェント時代の新たな産業エコシステムを共に構築していくことになるでしょう。 4. 人工知能の開発は、高い計算能力を追求すべきか、それとも高い計算効率(高いエネルギー効率)を追求すべきか? アラン・チューリングは、計算によって人間の知能を模倣できるという科学的仮説を提唱したため、科学界では人工知能の創始者として広く認められています。彼の論文は、計算が知能と同義であることを示唆しました。今日まで、人工知能におけるほぼすべての成果は計算と切り離せないものであり、大規模モデルの出現により、計算能力の役割はかつてないレベルにまで高まっています。高い計算能力が人工知能の必須要件であるかどうかは、真剣に検討する必要があります。 人工知能開発の当初の動機は、人間の脳を模倣することでした。数百万年かけて自然界で進化してきた人間の脳は、消費電力がわずか20W程度と、非常に効率的で省エネな計算装置です。脳の極めて低い消費電力は、分散型アナログコンピューティングによるものです。現在、コンピュータはハードウェアとソフトウェアを分離したデジタルコンピューティングを採用しているため、多くのエネルギーを消費しています。ディープラーニングのパイオニアであるヒントン教授は最近、「ヒューマンコンピューティング」という新たな研究方向を提唱しました。これは、人間の脳に類似したインメモリコンピューティングアプローチを採用し、従来のハードウェアとソフトウェアを分離したコンピューティングモデルを覆すものです。このタイプの研究は、高い計算効率とエネルギー効率を追求するものであり、長期的には人工知能の発展にとって正しい方向性を示しています。 DeepSeekのリリース後、スタンフォード大学の中国系アメリカ人科学者、フェイフェイ・リー氏率いるチームは、アリババのQwenモデルをベースにしたs1モデルの学習に成功しました。これは、GoogleのGemini 2.0 Flash Thinking Experimental AI推論モデルを「蒸留」し、SFT技術と組み合わせることで実現しました。16基のNVIDIA H100 GPUを使用し、50ドル未満のクラウドコンピューティングコストで26分間のモデル学習を行い、OpenAIのo1-previewモデルを上回る性能を達成しました。この低コストモデルの汎用性は大企業のモデルに及ばないかもしれませんが、驚くほど低コストであるため、特定のアプリケーションではハイエンドモデルに匹敵する性能を実現しており、人工知能の費用対効果に大きな改善の余地があることを示しています。 低コストは、技術の普及にとって不可欠な条件です。蒸気機関、電気、そしてコンピュータの普及は、それらのコストが一般大衆にとって許容できるレベルまで低下して初めて実現しました。人工知能も間違いなく同じ道を辿るでしょう。現在、高い計算能力の盲目的な追求は、AIのコストを高騰させ続け、大規模導入を妨げています。DeepSeekは、技術的なブレークスルーであるだけでなく、ルール再構築ツールでもあり、低コストのAI開発への実現可能な道を切り開きました。DeepSeekの台頭は、AIがもはや単なる計算能力の増強にとどまらず、高い計算効率とエネルギー効率の追求に重点を置いた新たな段階に入ったことを示しています。 5. 「オープンソース」はなぜそれほど強力なのでしょうか? ここ数年、オープンソースの大規模モデルの性能は、主要なクローズドソースモデルに比べて一貫して一世代以上遅れをとっていました。今回、DeepSeekの性能がクローズドソースモデルに追いつき、オープンソースコミュニティの信頼を大きく高めました。チューリング賞受賞者のレクソン・ヤン氏は、「DeepSeekの台頭を正しく解釈するなら、オープンソースモデルがクローズドソースモデルを上回っているということだ」と考えています。この評価は非常に的を射ています。なぜなら、個々の技術のブレークスルーよりも、AI開発モデルの変革が重要だからです。 OpenAIに代表される生成型AIが急成長を遂げている一方で、多くの企業は技術機密の漏洩を懸念し、プライベートAIプラットフォームにデータを委託して独自の垂直モデルを生成することに躊躇しています。これが、AIが様々な業界に導入されにくい根本的な理由と言えるでしょう。DeepSeekの完全オープンソースモデルは、この問題を解決します。世界中の企業やユーザーは、DeepSeekのコンパクトで効率的なモデルをローカルマシンにダウンロードし、オフラインでも高効率な垂直モデルを「抽出」できるため、この技術は真に民主化されます。 AIにおける真の競争は、技術やモデルだけでなく、エコシステム、ビジネスモデル、そして価値観にも左右されます。オープンソースモデルは、あらゆる開発者が強力なAIツールに容易にアクセスできるようにすることで、大企業の制約から解放し、AIの進化を飛躍的に加速させます。DeepSeekのオープンソース戦略は、このAI競争において、オープンソースを受け入れる者が未来を勝ち取るということを歴史に証明するでしょう。 6. 中国はすでに人工知能で世界をリードする力を持っているか? ChatGPTは0から1へのブレークスルーであり、DeepSeekは1からNへの拡張に過ぎないと主張する人もいます。この見解は、人工知能の発展の歴史的軌跡と一致しています。人工知能は厳密に定義された境界のない研究分野であり、知能と非知能の間に0と1の境界はなく、知能を増大させ続けるプロセスがあるだけです。長年にわたり、中国のAI分野のハイテク企業の多くは、応用とビジネスモデルの革新に注力し、急速な利益追求に走り、コア技術の革新にはほとんど取り組んでいませんでした。しかし、経済発展と技術蓄積に伴い、中国企業は独自のイノベーション能力を持つようになりました。DeepSeekの目覚ましい台頭は、中国のAI産業が「技術追随者」から「技術次点者、そしてリーダー」へと転換する転換点となるかもしれません。 中国は人工知能の基礎研究とコア技術において依然として米国に遅れをとっていることを認めなければならない。中国はAI分野における論文発表数と特許取得数で米国を上回っているものの、最も引用されている原著論文のほとんどは米国発のものであり、米国はトップクラスのAIモデルの主要な供給源でもある。スタンフォード大学の「2024年人工知能指数レポート」によると、2023年時点で米国には61の著名なAIモデルがあるのに対し、中国にはわずか15のAIモデルしかなかった。近年、中国はAI分野で急速な進歩を遂げ、目覚ましい成果を上げている。日経アジアレビューが2020年から2024年にかけて開催した神経情報処理システム会議(NIPS)を含む3つの主要な機械学習会議の統計によると、発表された3万件以上の論文のうち、8,491件は中国人著者によるもので(米国人著者によるものは14,766件)、過去4年間で中国人著者の数は8倍に増加した。 人工知能(AI)は、資本集約型で経験に基づく集積回路産業とは異なり、多額の資金投資だけでなく、高度な知的投資も必要とする、本質的に人間の知性に依存する新しい産業です。そのため、AI産業には明確な非対称性があり、わずか100人強の優秀な人材を抱える小規模企業が、時価総額が数兆ドルを超える業界リーダーに挑戦できる可能性があります。DeepSeekは、中国の有望なAI企業の一つに過ぎません。最近、MIT Technology Reviewは「DeepSeekを超える中国のAIスタートアップ4社に注目」と題したレポートを発表し、Stepfun、Model Best、Zhipu AI、Infinigence AIもDeepSeekに匹敵する技術力と国際競争力を示していると指摘しました。DeepSeekの台頭を受けて、「杭州六小龍」(DeepSeek、Unitree Robotics、Game Science、CloudDeep、GroupCore Technology、BrainPower)の物語が広く知られるようになりました。現在までに、中国にはAI分野のユニコーン企業が52社あり、世界のAIユニコーン企業の約18%を占めています。これは、AI分野において、中国の多くの革新的な中小企業が世界の最前線に進出し、世界をリードする力を発揮し始めていることを示しています。 DeepSeekの成功は、人工知能の発展においてアルゴリズムの最適化とシステムレベルのエンジニアリング最適化が不可欠であり、優秀なエンジニアが重要な役割を果たすことを示しています。強力なエンジニアリング教育システムと豊富なエンジニアリング人材は中国の大きな強みであり、私たちはこれらの強みを最大限に活用する必要があります。並行開発段階に入ったら、米国に数ヶ月遅れていることを過度に心配する必要はありません。それぞれが独自の研究を進め、誰が正しい研究の方向性を見出せるかに焦点を当てるべきです。若い世代が科学研究の主力になりつつあり、人工知能の研究と応用において米国をリードできるという自信を持つべきです。 7. 中国は人工知能における自立と強大化をどのように達成すべきか? 人工知能(AI)の自立には、国家トップレベルの計画と潤沢な財政支援だけでなく、効果的な人材育成と産業エコシステムの構築も不可欠です。数々の困難を乗り越えるには、自信が不可欠です。DeepSeekの成功は、創業者梁文鋒氏の自信にかかっています。彼はインタビューで、「中国のAIは永遠に追随者でいることはできません。誰かが先頭に立たなければなりません。OpenAIは神のような存在ではなく、永遠に先導することはできません」と述べています。80年代後半、90年代後半の中国の若者は、西側諸国を対等な存在として捉え始め、先駆者となる勇気と自信を持っています。彼らは中国の技術的自立への希望を体現しています。 DeepSeekの人材採用モデルは従来の常識を打ち破り、梁文鋒氏は独自の人材戦略を採用しています。経験豊富な専門家を排斥し、若手人材を採用しています。8年以上の経験を持つ人材は即座に不採用とし、5年以上の経験を持つ人材は例外的に優秀な人材のみを採用しています。DeepSeekのチームは、ほぼ全員が中国のトップ大学を卒業したばかりの卒業生、または博士課程のインターン生で構成されています。真のイノベーションは、往々にして過去の経験に縛られない人材から生まれます。DeepSeekは、経験を通して答えを見つけることに慣れた人材よりも、情熱と好奇心にあふれた若者を重視しています。この人材哲学は、同社に驚くべき革新的推進力をもたらし、中国の伝統的な教育モデルや人材採用モデルへの警鐘となっています。 人工知能の自立化において最も困難なのは、独立性と制御性を備えた産業エコシステムの構築です。NVIDIAの競争優位性はGPUチップ自体ではなく、CUDA(Computational Unified Architecture)ソフトウェアエコシステムにあります。DeepSeekはCUDAエコシステムに影響を与えましたが、完全に回避できたわけではなく、エコシステムにおける障壁は依然として存在しています。長期的には、CUDAよりも優れ、独立性と制御性を備えたAIソフトウェアツールシステムを開発し、AIソフトウェアエコシステムを再構築する必要があります。この目標を達成するには、綿密な計画と長期的な努力が必要です。関係部門は、国の開発資源を動員し、上流・下流企業の熱意を最大限に活用して、この重要な課題を成し遂げる決意を固めるべきです。 産業エコシステムの形成も市場の力に大きく依存しています。政府は政策を通じて、PC、携帯電話、IoTデバイスへのAIの応用を指導・奨励し、国産GPU、CPU、ソフトウェアの市場シェアを拡大する必要があります。チップ設計と大規模モデルにおけるオープンソース戦略を重視し、世界のオープンソースAIシステムにおいて主導的な役割を果たすよう努めなければなりません。限られたコンピューティングパワーの中で、ハードウェアの極限性能を最大限に引き出し、アルゴリズムとソフトウェアの協働イノベーションを通じて、あらゆる最適化空間を探求する必要があります。国産AIモデルは米国のAIモデルに非常に近いため、コンピューティングリソースとAIプラットフォームの最適な組み合わせを追求することで、中国のAI研究と応用が世界の最先端となるよう努めなければなりません。 ぜひ高評価をお願いします!(いいね!3つ) ↓* |
李国傑院士がDeepSeekに投げかけた7つの質問
関連するおすすめ記事
-
クラウドコンピューティングの巨人からジェネレーティブAIの世界的パイオニアへ:re:Invent 2024の3つの重要な発表を振り返る
-
GPU を購入する必要がなく、1 時間以内に 100 個の微調整済みモデルを簡単にデプロイし、従量課金制で月額最大 100,000 を節約できます。
-
Microsoft の「事故」により Linux が混乱に巻き込まれる: アップデート後、Linux が開かなくなる。
-
Didiの創設CTOがロボタクシー市場に注力するために辞任。
-
清華大学の研究チームは、20 を超える時空間データセットと 1 億 3000 万以上のサンプル ポイントを収集し、生成 AI に基づいて複雑な都市システムをモデル化する 3 つの方法を提案しました。
-
彼女にキャラクターが誕生!AIとのビデオ通話はほぼ遅延なし。SequoiaとY Combinatorが投資。