618ZXW

約5億元を追加調達!清華大学発のAIスタートアップ新波が、最も収益性の高い「コンピューティングパワーオペレーター」に。

AI大規模モデルの分野に約5億元の新たな資金調達ラウンドが投資されました。

QuantumBitは、清華大学傘下のAIスタートアップ企業、Wuwen XinqiongがシリーズAで約5億人民元の資金調達を完了したことを独占的に把握しました。投資額を増額した株主の顔ぶれは、非常に充実しており、印象的です。

同社は、北京や上海の国有・地元ファンド、順威資本や大辰資本などの大手市場志向型VC証券会社の直接投資業界CVCなど、一度に15社の新規株主を獲得した。

1年4か月前に設立されたこのスタートアップは、これまでに総額10億人民元近くの資金を調達しています。

同社は最新の評価額を公表していない。しかし、より重要なのは、統計によると、同社は現在、国内の大規模モデル分野において最も多くの累積資金調達を行っているAIインフラ企業であるということだ。

他にはありません。

そこで疑問なのが、このように収益性の高い AI スタートアップはどのようにして誕生したのかということです。

Wuwenxinqiongの共同創設者兼CEOであるXia Lixue氏がインタビューで答えた。

なぜWuwenxinqiongがこれほど多くの資金を集めたのでしょうか?

武文心瓊は昨年5月31日に設立された。

しかし、同社の AI 分野における経験の蓄積は、この日よりずっと前から始まっていました。

正確に言うと、このチームは清華大学NICS-EFC研究所に根ざしています。2008年に設立されたこの研究所は、正式名称を「ナノスケール集積回路およびシステム研究所、エネルギー効率コンピューティンググループ」といい、電子工学分野に重点を置いています。

この研究室のリーダーは、他でもない、Wuwenxinqiong の創始者であり同社の魂である、清華大学電子工学部の学部長である王宇氏です。

夏立雪は王宇の教え子であり、王宇が博士課程の指導教員となってから指導した博士課程の学生です。共同創業者兼CTOのヤン・シェンゲンも清華大学の卒業生で、現在は電子工学部の准研究員です。彼は以前、センスタイムのデータ・コンピューティング・プラットフォーム部門のエグゼクティブ・リサーチ・ディレクターを務め、チームを率いて1万枚のカードからなるクラスターを構築しました。

共同設立チームのもう一人の主要メンバーである上海交通大学の主任科学者兼准教授の戴国浩氏も、清華大学電子工学部で学士号と博士号を取得しています。

まあ、このラインナップは本当に清華大学(電子工学部)らしいですね。

これらの人々は、Wuwenxinqiong で 150 人を超えるチームを率いており、そのうち 100 人以上が AI 大規模モデル ソフトウェアおよびハードウェア テクノロジの研究開発に注力しています。

これを人と人との和といいます。

引き続き、清華大学 NICS-EFC 研究所についてお話しましょう。

振り返ってみると、2016年にこのラボはAIチップ企業DeePhi Techの育成に成功しました。2年後、DeePhiは世界最大のFPGA(プログラマブルチップ)メーカーであるXilinxに3億ドルで買収されました。

DeePhi Tech は、アルゴリズムなどのソフトウェア面を通じてチップの効率を向上させることに重点を置いていますが、その「発祥の地」である NICS-EFC 研究所は常に異なるアプローチを採用してきました。

ソフトウェアとハ​​ードウェアを連携して共同最適化を実行します。

夏立雪氏は、このルートの価値はAI 1.0時代に大きく損なわれたと述べた。

一般化能力が不十分なため、それぞれの小さなシナリオでは、特定のニーズに合わせた個別の最適化が必要となり、特定のモデルが必要になります。

しかし、2022年末にChatGPTがローンチされ、大規模モデルの時代、すなわちAI 2.0時代が本格的に始まりました。

「大規模モデルの登場は大きな転換点です。同じモデルで複数のシナリオに対応できるようになるからです」と夏立雪氏は説明する。「こうすることで、私たちが蓄積してきた経験と技術を一度最適化するだけで、複数のシナリオのニーズに対応できるようになります。」

同時に、AI 2.0 は AI インフラ層にさらなる将来的価値をもたらします。

現在では、シナリオの 80% をサポートするのに必要な労力は 20% だけになるかもしれません。

大規模モデルの時代の到来は、間違いなく武文心瓊の設立とその後の発展に好条件をもたらした。

武文心瓊が市場でこれほど好まれている理由は、前述の人的要因やタイミングだけでなく、その有利な立地によるところも大きい。

現状では、外部のコンピューティング能力へのアクセスはますます制限される一方、国産チップは依然として成長段階にあります。

不完全な統計によると、数千キロカロリーの容量を公表している中国のコンピューティング クラスターは 100 個以上あり、これらのクラスターの大部分は、同種コンピューティングから異種コンピューティングへ移行済みか、移行の途中です。

現在、国内のコンピューティングパワーの供給は、供給過剰と供給不足の両方の状態にあるようです。
コンピューティング センターは誰に販売すればよいか分からない一方で、多くの人々はさまざまなことをするためにすでに商品化された「電気」を使用する必要があります。

厳しく独特な地域的要求に応えるには、異なるメーカーの異種チップ リソースを統合して効率を最大化できる人材が緊急に必要です。

「フルスタックの技術力を持つ唯一のスタートアップチーム」

そのため、今回発表されたシリーズAの資金調達と4つの異なる投資家からの投資は、Wuwenxinqiongの自信の源泉と見ることができます。

Wuwenxinqiong 氏は計算を行い、AI モデルの計算能力に関する式を提案しました。

チップの計算能力 × 最適化係数(ハードウェア・ソフトウェア共同処理) × クラスタサイズ(多次元異種) = AIモデルの計算能力

この式には 3 つの影響要因があります。

  • チップの計算能力:単一チップの理論上の計算能力を指し、単位エネルギーあたりの乗算計算回数で測定できます。
  • 最適化係数:ハードウェアとソフトウェアの共同最適化によるチップの計算能力の利用効率を指します。これにより、チップの計算能力の利用効率が向上し、単一チップの計算能力が制限されている場合に、単一チップがタスクでより大きな役割を果たすことができます。
  • クラスター スケール:これは、Wuwenxinqiong の多次元異種コンピューティング パワー適応テクノロジによって業界に提供される全体的なコンピューティング パワーの規模を指し、これにより、より多くの眠っているコンピューティング パワーが覚醒されます。

この式の最終的な結果は、中国がサポートできるAIの規模を表しています。具体的な価値の重要性は、それがもたらす理解、つまりソフトウェアとハ​​ードウェアの共同設計と、多様な異種システムへの適応が産業チェーンにもたらす価値に比べればはるかに小さいのです。

コンピューティング パワー市場の大きな可能性は誰の目にも明らかであり、当然、その基盤となる技術要件も非常に高いものとなっています。

Wuwenxinqiong は、モデルとコンピューティング能力の垂直統合を実現することを目指し、フルスタックの技術機能を構築することを決意しています。

フルスタックのテクノロジー ポートフォリオを構築する必要があるのはなぜですか?

まず第一に、Wuwenxinqiong は、自分がうまくできると信じています。

上位レベルのモデルアプリケーションから下位レベルのコンピューティング ハードウェアまで、クラスター レイヤー、モデル タスク最適化レイヤー、フレームワーク レイヤー、オペレーター レイヤー、ハードウェアのカスタマイズと最適化レイヤーなど、複数のレイヤーに分割できます。

夏立雪氏は、過去1年間でチームに100人以上の技術メンバーが加わったと語りました。「大企業を除けば、中国でフルスタックの技術力を持つのは私たちだけです。」

第二に、フルスタックテクノロジーは製品化されたサービスを提供するのに役立ちます。

具体的な例としては、Wuwenxinqiong が今年リリースした Infini-AI 異種クラウド プラットフォームが挙げられます。

世界初の異種チップハイブリッドトレーニングプラットフォームを統合し、単一タスクで数千枚のカード規模に対応し、数万枚のカード規模の拡張性を備え、AMD、Huawei Yiteng、Tianshu Zhixin、Muxi、Moore Threads、NVIDIAを含む6種類のチップの大規模混合トレーニングをサポートします。700億のパラメータを持つ大規模モデルのトレーニングをワンクリックで開始できます。

上位の様々なクラスターに直接接続することで、モデルを作成・利用する人が下位のクラスターを容易に利用できるようにし、中間層を解体します。これがWuwenxinqiongの最大の差別化要因です。

この考え方は、無文心瓊の中核概念にも反映されています。

創業当初から「MxN」が彼らの中核理念となってきました。

「MxN」とは何でしょうか?それは、異なるチップや異なるモデル間の障壁を打ち破り、ソフトウェアとハ​​ードウェアの共同最適化を通じて、MモデルとNチップの統合と統一を実現することを意味します。

具体的には、異機種コンピューティング リソースを効率的に統合するユーザー フレンドリーなコンピューティング プラットフォームと、ソフトウェアとハ​​ードウェアの共同最適化および高速化をサポートするミドルウェアを提供することで、主流ハードウェアと異機種ハードウェアの利用率を大幅に向上させることを目指します。

目標は、マルチモデル、マルチチップ環境に適応する AI ネイティブ インフラストラクチャを構築し、最終的には異種チップのコンピューティング能力が Nvidia に匹敵する (あるいは凌駕する) ようにすることです。

武文新瓊がかなり早い段階でその目標を発表していたことは注目に値する。

大規模モデルの導入コストが 10,000 分の 1 に削減されました。

Wuwen Chipは基本的に1000分の1の削減を達成したと理解されています。この1000分の1の削減は大規模モデルを対象としており、アルゴリズム層、ハードウェア層、ソフトウェア層など、複数のレベルでの共同最適化を組み合わせています。

クロスレベルジョイント最適化により、「化学効果」が生成され、モデルレベルでの圧縮と、これらの圧縮に対応する加速演算子をハードウェアレベルで実装できるようになります。

しかし、1000倍と1万倍は、わずか「0」の差のように思えますが、それは単にいくつかの手順を踏むだけで達成できるものではありません。

夏立雪氏は、「私たちはすでにソフトウェアとハ​​ードウェアの連携を比較的深いレベルで実現しています。さらに1万分の1のコスト削減を実現するには、ハードウェアの活用が不可欠です。つまり、モデルとハードウェアの深い連携を実現するには、ハードウェア構造をそれに応じて調整する必要があるのです」と述べました。

したがって、コストを1万分の1に削減することを真に実現するには、チップメーカーと協力し、エンドユーザーのアプリケーションシナリオにおける新たなニーズに適応するチップ構造を探求・設計する必要があります。これは単なる理論的な概念ではなく、新しいチップの設計とテープアウトプロセスへの実際の投資を必要とします。

これは間違いなく大規模なプロジェクトです。

これに対して、Wuwenxinqiong 氏は、シリーズ A の資金調達による収益の一部を、エッジ モデルとエッジ チップを統合するプロジェクトの調査に特化して使用すると述べました。

もう一つ

ビジネス モデルに関して言えば、Wuwenxinqiong は最も一般的なソフトウェア支払いモデルに従っていませんでした。

代わりに、「タオバオ」になることを選択しました。

彼らはインテリジェントコンピューティングの分野でオペレーターとして活動し、さまざまなクラスターのハードウェアインフラストラクチャにソフトウェアを直接統合し、トークンを販売しています。

顧客には、Zhipu AI、Kimi、Shengshu など、国内有数の AI 大規模モデル分野の有名企業が多数名を連ねています。

この観点から、Wuwenxinqiong はまず、自社の技術力、製品力、ビジネス力、ビジネスモデルの検証に成功しました。

Wuwenxinqiongの次のステップは、事業規模を拡大することです。