我々は OpenAI よりわずか 5 ~ 6 か月遅れていますが、この時間差をさらに縮めることは誰にとっても非常に困難です。 国産の大規模モデルが初めて、国際的な「大規模モデルアリーナ」の最高難易度リストでGPT-4o(5月版)を上回りました。Zero1.comの名前はOpenAIとGoogleに次ぐものですが、李開復氏は率直にこのことを表明しました。 「ビッグシックス」モデルが事前トレーニングを中止したという噂が広まったちょうどその時、5か月の準備期間を経て、カイフー・リーのゼロワンワールドプロジェクトは、すべてに対して力強い反応を示した。 最新のフラッグシップモデルであるYi-Lightning が発売され、GPT-4o-2024-05-13 を上回り、UC Berkeley Chatbot Arena の総合リーダーボードで 6 位にランクされました。 また、100万トークンあたりの価格を0.99人民元に引き下げました。これは、このバージョンのGPT-4oの3%未満であり、GPT-4o-miniの100万トークン入出力あたりの平均価格よりも約3分の2低くなります。 △上記データは10月26日時点のものです。 大型模型アリーナの公式サイトでは、「これは中国における大型模型の力強い成長を示すものだ」と称賛する投稿を掲載した。 また、大規模なモデルコミュニティからも広く認知されています。 中国の大規模モデルが追い上げています!競争が続くのは素晴らしいことです。GoogleやOpenAIのような大企業がモデルの開発を続け、さらに重要なことに、それを公開し続けることを余儀なくされています。 このモデルの背後にあるもう一つの注目すべき点は、李開復博士と彼のゼロワンワールドが中国の大規模スタートアップの発展経路をより明確に理解していることだ。 QuantumBit との一対一の会話の中で、Kai-Fu Lee 博士は、リーダーボードでのランキングから OpenAI への追いつき、大規模モデル アプリケーションの商用化まで、あらゆることを率直に話し、シリコンバレーでの最新の観察結果も共有しました。 具体的な詳細はここで共有されます。 (以下は李開復氏の見解です) 大型模型製作を専門とする中国の新興企業は、「アプローチを変える」必要がある。5~6 か月のギャップを埋めるにはどうすればよいでしょうか? 昨年11月に提案されたYi-34Bから、今年5月のYi-Large、そして10月のYi-Lightningまで、Zero One Everythingは5~6ヶ月ごとに新モデルをリリースしてきました。どの新モデルも、基本的に5~6ヶ月前の世界最高レベルに達しています。 5 ~ 6 か月は絶対的な違いを表しますか? 追いつくという点では、2つの考え方があると思います。1つは、同じ方法論を使って同じことを行い、同じリソースを消費してAGIを目指したいという考え方です。もしそう考えているなら、追いつくことを諦めるのが正しい判断です。 OpenAIはGPT-4のトレーニングに1億ドル、GPT-5のトレーニングに10億ドルを費やし、GPT-6のトレーニングには100億ドルかかる可能性があり、その後のトレーニングにも天文学的な費用がかかります。中国のスタートアップ企業ではこれほどの資金を調達できるところはなく、大企業でさえもこれほどの資金を投入する意欲は低いでしょう。 一部のアメリカの投資家は非常に独特な考え方を持っていることを認識しなければなりません。3年以内にAGIを実現する可能性がどれほど低くても、彼らは投資し、挑戦する意欲を持っています。例えば、OpenAIは投資家グループを投資に導いた卓越した説得力を持っています。名前だけでも数十億ドルの価値があるマスク氏。独自の技術で他社にスポットライトを奪われたくないGoogleは、歯を食いしばって投資する覚悟です。Metaはある程度市場に混乱をもたらしていると思いますが、最近の高い広告収入を考えると、10億ドル、あるいは100億ドルの投資も彼らにとって問題ではありません。 私たちにはそれほど膨大な量のリソースはありません。 したがって、スタートアップで全く同じアプローチを再現することは困難です。しかし、別のアプローチを試すことは可能です。独自の「高速、効率的、そして費用対効果の高い」戦略を見つけ出し、最小限のリソースで可能な限り最高のモデルをトレーニングすることで、反撃に出ることができます。 OpenAIからわずか5~6ヶ月遅れているだけだと言っています。このタイムラグをさらに短縮しようとすると、私たち自身を含め、中国の競合他社にとって非常に困難になるでしょう。ZeroOneの目標は、世界クラスのモデルを作ることです。現在の戦略は、最初のモデル開発から5~6ヶ月遅れることですが、より安価で高速なモデルの開発を目指します。そうすることで、実際にモデルの使い勝手が向上します。 中国企業は、何かを完璧に仕上げることに優れており、低コストで高い効率性を実現します。コストの削減は、アプリケーション数の急増につながります。 モデル能力の測定は重要 測定できないものがあれば、進歩はあり得ないと私は信じています。ですから、ランキングとは、大学入試のように順位を競うものではありません。世界中の多くの優れた企業や人々の中で、自分がどこに位置しているのか、まだ前進する可能性があるのか、それともすでに遅れをとっているのかを理解することこそが、ランキングなのです。これは極めて重要です。 ランキングによって評価基準は異なります。例えば、MMLUは「天井」を測りますが、天井高が100メートルの家を建てたとして、ジャンプできるのは数メートルだけで、最上階の80メートルまで到達できないとしたら、一体何の意味があるのでしょうか? そのため、私たちはモデルの能力をどのように測定するか、そしてそれがユーザーに認められているかどうかをより重視しています。UCバークレー・ビッグモデル・アリーナの評価方法は、人々による公平な評価に基づいています。だからこそ、私たちだけでなく、世界的な大手企業もこのランキングに注目しているのです。 私たちはランキング付けやチャートの操作といった概念を支持していません。その代わりに、エンドユーザーとつながり、彼らが私たちの仕事を評価してフィードバックを提供できるような公正な方法を追求しています。 たとえば、このリーダーボードに 2 つのモデルを提出しましたが、それぞれのスコアの違いを見ると、多くのことがわかります。 このリストにおいて、私たちはOpenAIとGoogleに次ぐ世界第3位の企業です。世界トップクラスに位置付けられていることを大変嬉しく思っています。これは私たちにとって非常に重要なことであり、チームにとって大きな励みとなっています。私たちのモデルは国内外の市場で競争力があり、何も恐れることはありません。 これは私たちのチームにとって前向きなフィードバックであり、前進し、モデルの構築と事前トレーニングを継続する自信を与えてくれます。 もう 1 つの重要な点は、Yi-Lightning が上位と下位の 5 つのモデルの両方よりも高速であることです。 AI アプリケーションは商業化の転換点に達しました。現在、中国は AI アプリケーションを開発できる段階に入っています。 なぜAIアプリケーションの導入はこれまで難しかったのでしょうか?実は、理由はただ一つ。優れたモデル推論にはコストがかかりすぎたのです。1年半前、中国には製品市場適合性(PMF)を達成できるモデルは一つもありませんでした。 かつてモバイルアプリケーションを開発する場合、ユーザー数が10万人から100万人に増えると、帯域幅やサーバーなどのコストは増加しましたが、企業が倒産することはありませんでした。しかし、AI時代では、1回の推論処理に数ドルかかる場合、スタートアップ企業はユーザー数が10倍に増えた途端、たちまち倒産してしまいます。 今年、いくつかの国産モデルが世界レベルの性能に達し、その中にはすでに十分に低いコストを実現しているものもあります。例えば、当社のYi-Lightningは100万トークンあたり0.99人民元で、AI検索アプリケーションをサポートするのに十分なコストです。1回の検索コストはわずか1~2セントです。たとえ数百万人のユーザーが1日に5回検索したとしても、コストは管理可能な範囲にとどまります。 そのため、モバイル インターネット時代のようにアプリケーションを開発するには、コスト パフォーマンスの高い世界クラスのモデルが登場するまで待つ必要があります。 中国のToC(Business-to-Consumer)市場には、まだスーパーアプリが登場していません。これはユーザーが必要としていないからではなく、かつては十分に優れたビジネスモデルを構築すればどんな起業家でも破産してしまうような状況だったからです。今日では、優れたモデルは十分に安価になり、状況は劇的に変化しました。私はToCについて非常に楽観的です。さらに、美団(Meituan)がDoorDashを、抖音(Douyin)がInstagramを上回ったように、中国の起業家は製品市場適合性(PMF)においてアメリカの起業家を凌駕していると考えています。 ただし、アプリケーションの開発には、ユーザー獲得コストという別の課題がある場合があります。 国内大手企業の力は非常に大きく、スタートアップにとってユーザー獲得コストは比較的高額です。そのため、起業家にとって次のステップは、自信と優れた低コストのビジネスモデルに加え、比較的少ない予算で大量のトラフィックを獲得する機会、あるいは強いユーザーニーズを満たす機会を見つけることです。 B2Bアプリケーションにおいて、AI 2.0時代とAI 1.0時代を象徴する大規模モデルの違いが根本にあると思います。AI 1.0はプロジェクトベースで、お客様が何をしたいとしても、たとえ個々の取引で損失を出しても、私が介入して対応しました。今日、多くのB2B企業は依然として赤字経営を続けています。これは憂慮すべき事態です。 より楽観的な見方をすれば、大規模モデルを作成できる能力があれば、プロジェクトをよりコスト効率よく構築できます。大規模モデルを基盤とすれば、それほど多くのデータを収集する必要はありません。その固有の能力はすでに非常に強力です。 大規模モデルには、エージェント生成、マルチモーダルコンテンツ生成、コパイロット、ライブストリーミングなど、これまでは利用できなかった多くの機能も備わっています。これらの機能はAI 1.0時代には利用できなかったため、試してみる価値があります。 B2B ルートを取る場合、まず第一に、注意すべき最も重要なことは、すべての取引で損失を出さないようにすることです。 第二に、顧客が必要としているのはモデルではなくソリューションであることを認識することが重要です。 第三に、モデルの本質と業界の特徴を迅速に融合し、コストを節約したり、利益を上げたり、できれば利益を上げたりできる適切な業界を見つけるよう努めるべきです。 01500については、段階的に製品をリリースしていきます。ToC(Business to Consumer)に関しては、まず海外市場でテストを行い、その後国内市場に戻るという戦略を継続します。これは主に、海外で既に一定の実践経験を積み、海外市場に対する理解を蓄積していること、そして一部のアプリケーションは有料化することで海外のユーザーに受け入れられやすいためです。 B2B分野では、小売、政府、金融、エネルギーといった分野で収益性の高い取引を獲得してきました。しかしながら、正直なところ、持続可能な競争優位性をどのように構築していくかについては、依然として検証を続けています。 特定の業界で取引を成立させた場合、それは他に類を見ない、他に類を見ない事例でしょうか?それとも、2件目、3件目の取引でも再現できるでしょうか?これらの2件目、3件目の取引で技術を再利用することで、利益率を高めることができるでしょうか?これらの疑問はまだ検証が必要です。2年目は、技術の商業化と実用化に注力します。 開発する価値のあるアプリケーションとはどのようなものでしょうか?2009年の講演で、モバイルインターネットアプリケーションの登場順序は、PCアプリケーションの成長順序と関連していると述べました。例えば、まずコンテンツの読み書き、次にコンテンツの検索と管理、そしてコンテンツの多様化と充実化、そして最後にコンテンツの枠を超えて、広告、決済、eコマース、ソーシャルネットワーキングといった有料サービスへと拡張していく、といった具合です。その根底にあるのは、これらが本質的に人々のニーズであるということです。 新しい時代が幕を開けようとしており、それは同様のパターンを辿るはずです。AI主導のコンテンツの閲覧と制作は、ChatGPT、Midjourney、Kelingといったプラットフォームに代表されます。次の段階はAI検索、そしてマルチモーダルソーシャル/エンターテイメント、そしてローカルサービスやeコマースなどが続くでしょう。 健全な大規模エコシステムは逆三角形の構造を持っています。「ChatGPT が普及した後、Nvidia が大儲けした」という主張は客観的な事実です。 大きな要因の 1 つは、Nvidia の主な顧客が、一度に数十万枚、あるいは数万枚のカードを購入する超大企業であり、それが Nvidia に大きな利益をもたらしていることです。 これらの企業は、AGIを最初に開発することを目指しているため、GPUを購入する費用を全く負担に感じていません。この考え方は、NVIDIAへの資金流入につながり、結果として、彼らのモデルは非常に強力になる一方で、非常に大規模で高価なものになる可能性があります。 私たちにとってのチャンスは、推論コストが低い小型モデルを作成し、アプリケーション開発を推進することにあります。 この現状を打破するには、十分な数の企業がこのエコシステムを理解する必要があると私は考えています。 最下層はGPU、中間層は様々なモデルプラットフォームで構成され、その上にアプリケーションが配置されます。この構造が健全であると判断されるためには、最上層が最も大きく、最下層が最も小さい逆三角形である必要があります。 もう一つの要因は、NVIDIAがあまりにも強力で、利益率が極めて高いことです。もし2、3社のチップメーカーがNVIDIAと競合できれば、市場規模は縮小し、私たちが購入するGPUの価格も下がる可能性があります。しかし、短期的にはNVIDIAが依然として業界最強の地位を維持しています。 シリコンバレーニュースo1 は非常に新しい考え方を導入しています。つまり、すべての知能が事前のトレーニングと微調整から生まれるわけではないということです。 大規模モデル技術の今後の発展は、次の 3 つの方向に進むはずです。 第一の優先事項は、適切な事前トレーニングをどのように実施するかということです。 2つ目は、事後トレーニングをいかにうまく行うかです。 3つ目のポイントは、思考を推論にどのように取り入れるかということです。 O1 に関して私が最も驚いたのは、米国で経済学の教授に会ったとき、その教授が O1 を使うと博士課程の学生を 1 人減らして採用できると言ったことです。 彼は自分のアイデアを議論するために、毎週の博士課程の学生との個別面談を待つ必要はありません。いつでも自分のコンピュータを開いてO1に質問することができます。時には間違いもありますが、O1は教授の指摘から学び、時には教授の間違いを正すことさえできます。そのため、このケースでは、O1は博士課程の学生よりも教授の能力を高めることができるかもしれません。 私が彼と話していたとき、OpenAIの人たちが周りにいました。OpenAIの人たちは興奮してこう尋ねました。「教授、O1のサービスにいくら払えるんですか?」教授は答えました。「私は博士課程の学生を募集するのに年間10万ドルを請求しています。だから、その10万ドルをO1に払うつもりです。」 もう一つの議論のテーマは、OpenAI の資金調達です。 OpenAI の最新の資金調達ラウンドはやや厳しいものでした。66 億ドルを調達しましたが、これは多額に思えます。しかし、OpenAI の評価額が 1,570 億ドルであることを考慮することが重要です。 課題はどこから来るのでしょうか?私の理解では、GPT-5の学習は容易ではありません。理論上はGPT-5はすでにリリースされているはずでしたが、延期されており、その延期がいつまで続くかは誰にもわかりません。 しかし、OpenAIの恐ろしいところは、O1のようなプロジェクトを数多く隠している点です。彼らはそれらのプロジェクトを急いで立ち上げようとしません。第一に、競合他社がそれらから学び、改良することを恐れているからです。第二に、資金を確保し、競合他社への対応が完了するまで公開を控えたいと考えているからです。 1年前、投資家たちは依然として様々なモデルに熱狂的に投資していたことがわかります。今年は、純粋に金融投資の観点から見ると、商業価値をあまり生み出さないモデルの学習に多額の資金を費やしても、数ヶ月後にはモデルが置き換えられ、投資が無駄になる可能性があることに誰もが気づきました。 これについて話すときに私が強調したい主なポイントは次のとおりです。 投資家はビジネス重視のアプローチでこのセクターを評価し始めています。 - 以上- |
リー・カイフーはすべてに反応。「アリーナランキングは、事前トレーニングを続ける自信を与えてくれる」
関連するおすすめ記事
-
「電動リトルG」が99,800元で発売! でももう2025年なのに標準航続距離はたったの300km?
-
オープンソースと学術評価の相乗効果に関する短い議論 | CCCFハイライト
-
7118億ドル!マスク氏がOpenAI買収を申し出るが、ウルトラマンは皮肉を込めてこう言う。「711億ドルでTwitterを買ったほうがいい」
-
AIを活用したヘルスケアモデルの構築を目指すAPUSの「2+5+N」戦略は大きな注目を集めている。
-
2007 年の「Black Myth: Wukong」プロデューサー Feng Ji 氏の古い記事: 誰が私たちのゲームを殺したのか?
-
スタンフォード大学フェイフェイ・リー教授のチーム:2024年人工知能開発報告書の概要