618ZXW

Baiduの謝光軍氏:百機種戦争と価格戦争の戦いが終わった後、大型機種の次の戦場はツールプラットフォームです。

AIビッグデータモデルは生産現場や日常生活のあらゆる場面に浸透しつつあります。

その影響は、過去10年間にAIが様々な産業に及ぼしてきた影響よりも深刻であるとさえ言えるでしょう。さらに、「探索」から「価値創造」への発展は、企業とモデルメーカー間の反復的な協働プロセスとなっています。

企業にとっては、単に大規模モデルの導入を追求するのではなく、どのようなビジネスに大規模モデルが必要なのか、大規模モデルを自社のワークフローにシームレスに統合するにはどうすればよいのか、どのようなモデルやアプリケーションが必要なのかを明確にし始めています。

一方、企業からの明確な要求に応えるモデルメーカーは、大型モデル事業を垂直統合し、効率化ツールを提供することで大型モデルの価値を最大化する方法をより深く理解しています。国内メーカーは、この1年半で数百種類ものモデル間の熾烈な競争と価格競争を経験してきました。大型モデルの次の戦場は、ツールプラットフォームです。

上記は、2024 Baidu Cloud Intelligence Conference でBaidu の副社長である謝光軍氏が共有した直接の洞察です。

彼はまた、一連のデータを公開しました。

過去 1 年間で、Qianfan プラットフォームは 1 日あたり 7 億回以上呼び出され、ユーザーが 30,000 の大規模モデルを微調整し、700,000 を超えるエンタープライズ レベルのアプリケーションを開発するのに役立っています。

さらに、大規模モデルの業界への浸透が深まり、ニーズが明確になり、技術も進歩するにつれて、百度千帆大規模モデルプラットフォーム3.0が立ち上げられました。

生産性の再構築における3段階の進化

交流会で謝光軍氏は、大型モデルの動向の変化に基づいて過去1年半を3つの段階に分けてタイムラインを説明した。

  • フェーズ1:ChatGPTの出現 - 2023年上半期
  • 第2フェーズ:2023年後半 - 今年半ば
  • フェーズ3:年半ばから現在

第一段階は「百式の戦い」の中で最も激戦が続いた時期でした。

これは探索と学習の段階です。大規模モデルを扱う人々やチームは、モデルの研究と学習のために、カードを探し、コンピューティングパワーを蓄え、GPUやAIチップの購入を競っています。現時点では、企業のニーズの大部分は依然としてモデルの呼び出しと微調整にあります。

謝光軍は例え話をした。「当時、最も重要なことは土地を奪取することでした。」

言い換えれば、彼らは急速にリソースを拡大または獲得し、優位な地位を確立することで、OpenAI、Anthropic などと競争することを目指しています。

全員が力を合わせる主な目的は、大規模なモデルもトレーニングできることを外部の世界に証明することです。

第 2 フェーズでは、アプリケーション シナリオの検討に焦点が移ります。

多くの企業や開発者は、大規模な AI モデルをスタンドアロン ツールとしてではなく、まったく新しい生産性向上ツールとして捉えることに満足し始めています。

企業は基本的なモデリング能力を獲得するにつれ、ビジネス システムに大規模なモデルを適用する方法、既存のシステムを変革する方法、またはまったく新しいアプリケーションを作成してビジネスの効率と価値を向上させる方法を検討し始めました。

この期間中、インテリジェントな質問応答やインテリジェントなライティングなどのインテリジェント アシスタント アプリケーションが雨後の筍のように登場しました。

しかし、謝光軍氏は、実際に生産現場で使用され、価値を生み出すアプリケーションの数はまだ非常に少ないと指摘した。

今年 5 月以降、数百のモデルをめぐる争いは価格戦争へと発展しました。値下げによって企業による大規模モデルの利用が促進され、さまざまなシナリオの検討が促進され、大規模モデルの導入がある程度加速しました。

第三段階、つまり現在は、大規模モデルの応用が、さまざまなシナリオでの徹底的な応用と緊密な統合の段階に入った段階です。

現在、モデルのパフォーマンスが向上し、価格が下がったことで、ようやく現実世界でのアプリケーションが登場しました。

謝光軍氏は、教育、製造、金融、医療の各分野における事例を挙げ、大規模モデルによってもたらされたインテリジェントシステムがそれぞれの機能を果たしていると述べた。

同時に、大規模なモデルが従来のソフトウェアと深く統合され始め、生産性ツールが再形成されつつあります。

特に注目すべきは、企業がインテリジェント アシスタントなどの単一形式のアプリケーションに満足しなくなり、在庫管理システムや ERP システムなどの従来のアプリケーションに大規模なモデルを導入して、ビジネスの革新と効率性の向上を推進している点です。

まとめると、第一段階が「百機種戦争」、第二段階が「価格戦争」であるとすれば、第三段階は「アプリケーションプラットフォームツール」に分類できる。

これが、Baidu Qianfan の大規模モデル プラットフォームが継続的にアップグレードされてきた理由です。

モデルのトレーニングからフルスタック開発まで、戦場はツール プラットフォームに移っています。

謝光軍氏は、過去1年半にわたり百度千帆の大型モデルプラットフォームが変化する状況に適応する上でどのように進歩したかを振り返った。

最初のフェーズである「百機種の戦い」は、モデルの B エンド ユーザーにとって実験の期間でもありました。

Baidu AI Cloudは、モデルの微調整のためのツールチェーンと大規模モデル呼び出しインターフェースを含むQianfan Large Model Platform 1.0をリリースし、モデルの呼び出し量が増加し始めています。

第2段階では、 Qianfanはバージョン2.0に進化し、「アプリケーション開発」が前面に出てきました

Qianfan 2.0 は、モデル サービスと開発のサポートに加えて、主に AppBuilder などの AI ネイティブ アプリケーション開発プラットフォームを追加して、RAG およびエージェント アプリケーション開発のさまざまなニーズをサポートします。

今年に入って、アプリケーション開発、モデル推論、モデル開発などの面で企業顧客の大規模かつ複雑なニーズをより体系的にサポートするために、Qianfan 2.0 は進化と反復を続けています。

しかし、第 2 フェーズの Qianfan はすでに実装が開始され、エンタープライズ レベルの生産性シナリオに貢献しているにもかかわらず、謝光軍氏は次のように見解を述べています。

モデル技術が進歩し、その応用が深まるにつれ、現実世界のシナリオでは大規模モデルだけではもはや十分ではありません。本日は、大規模モデルと、視覚や音声といった垂直シナリオモデルとの連携を本質的に含むマルチモーダルモデルについて議論します。

第二に、エンタープライズ レベルの RAG とエンタープライズ レベルのエージェントは、将来の大規模モデル産業実装の主な形式です。

企業の生産性に対する深化と進化するニーズに対応するために、 Qianfan Large Model Platform 3.0 が誕生しました。

ストーリーは第 3 フェーズに入り、モデルのトレーニングからフルスタック開発へと完全に移行します。

Qianfan Large Model Platform 3.0 は、生産性シナリオ向けのエンタープライズ レベルの統合サービス プラットフォームであり、主に企業にプロセス全体にわたる生成 AI 制作およびアプリケーション開発ツールチェーンを提供します。

次の 3 つの領域で包括的なアップグレードが行われました。

• モデル開発層

• モデルサービス層

• アプリケーション開発層

モデル開発層

Xie Guangjun 氏は、Qianfan 3.0 のモデル開発レイヤーが最も包括的なツールチェーンを提供すると述べました。

主力モデルであるERNIE 3.5とERNIE 4.0 Turboにも初めてSFTが搭載され、ユーザーは専用の高品質混合コーパスをプリロードできます。

理由は2つだけです。

まず、実際のビジネスフィードバックは、企業が保有するデータの質と量の両方において、まだ改善の余地があることを示しています。企業ユーザーがプラットフォーム上で拡張できる、事前に構築された専用の高品質な混合コーパスは、最終的なモデルのパフォーマンスを向上させる可能性があります。

第二に、一般的なコーパスを垂直ドメインモデルのトレーニングに組み込むことで、一般的な能力を忘れてしまうという問題をさらに軽減することができます。

モデルサービス層

Qianfan 3.0 のモデル サービス レイヤーは、豊富なモデル セットを提供します。

これには主に、Baidu が自社開発した Wenxin シリーズと、新たに追加された音声シリーズ機能モデルおよび視覚シリーズモデルが含まれます。

自社開発モデルには、最新モデルのERNIE 4.0 Turbo、ERNIE Speed Pro、ERNIE Lite Proが含まれます。主力モデルのERNIE SpeedとERNIE Liteは引き続き無料です。また、縦位置シーン向けの大型モデルにERNIE Novelが追加されました。

大規模言語モデルに加え、従来の音声モデルや視覚モデルも実用化において依然として必要とされていることを考慮すると、大規模モデルと垂直シナリオモデルの連携利用は非常に一般的です。そのため、モデルサービス層には従来のモデルも含まれています。

Xie Guangjun 氏は、Qianfan 3.0 モデル サービス レイヤーで使用できる大規模なモデルを 1 つの図で説明しました。

アプリケーション開発層

アプリケーション開発層では、エンタープライズ レベルの RAG およびエンタープライズ レベルのエージェント開発ツールであるQianfan AppBuilderと、エンドツーエンドのアプリケーション開発ツールであるAI Quick Build が提供されます。

謝光軍氏はいくつかのデータを共有した。「現在までに、千帆大規模モデルプラットフォームは、ユーザーによる 70 万以上のアプリケーションの開発を支援してきました。」

Qianfan Large Model Platform 3.0 は、エンタープライズ レベルの RAG およびエンタープライズ レベルのエージェント開発ツールを提供します。

エンタープライズ レベルの大規模モデルの高頻度アプリケーション シナリオ向けに、Qianfan 3.0 では、検索効果、検索パフォーマンス、ストレージ拡張、展開の柔軟性という 4 つの側面で、エンタープライズ レベルの検索強化世代 (RAG) を全面的にアップグレードしました。

エンタープライズ レベルのエージェント開発向けに、Qianfan 3.0 では、ビジネス セルフ オーケストレーション、手動オーケストレーション、ナレッジ インジェクション、メモリ機能、Baidu 検索など、80 を超える公式コンポーネントのサポートが追加されています。

AI Quick Buildは、エンドツーエンドのアプリケーション開発を可能にします。たった1行のコード、またはPRD(製品要件ドキュメント)を入力するだけで、フォーム、データ、プロセスを含むエンドツーエンドのアプリケーションを段階的に生成できます。生成されたアプリケーションは、ローコードGUIに基づいて修正・改良することも可能です。

エコシステムを通じて共に成長する

大規模モデルの実装では、基盤となる大規模モデルの機能向上に加え、業界シナリオにおける機能とアプリケーションの強化にも重点が置かれており、謝光軍氏はこれを「シナリオの深化」と呼んでいます。

現在、Baidu AI Cloud の Qianfan Large Model Platform は、さまざまな業界のシナリオをセグメント化し、それらのシナリオ内でのモデル機能、データ機能、アプリケーション機能を継続的に改善しています。

同時に、Qianfan は、モデル ルームの微調整方法や大規模モデルのテンプレートの入力方法をユーザーに教えるための一連のアプリケーション モデル ルームもリリースしました。

これにより、ユーザーの参入障壁が継続的に低下し、さまざまな業界のシナリオで大規模なモデルがより深く蓄積され、プロモーションと浸透がより深まります。

1年以上の調査を経て、多くのユーザーニーズが満たされるようになりました。

大規模モデルの導入は、もはや企業にとって最優先事項ではありません。真の競争力は、大規模モデルをビジネスプロセスで実行し、効果的に活用し、ビジネスに価値を生み出すことにあります。

大規模モデルを組み合わせる場合、企業にとって、大規模モデルの有効性、データの合理的な利用、アプリケーションの構築方法が注目されます。

謝光軍氏は「今は素晴らしい時期だ」と述べ、ユーザーも業界をリードするパートナーと協力し、エコシステムとともに成長することを選択するだろうと付け加えた。

アプリケーションがより広く採用されるようになると、プラットフォームはますます増え、機会はますます豊富になるでしょう。

さらに、ユーザーのニーズがより明確かつ現実的になることで、プラットフォームは関連機能を正確かつ継続的に改善することができ、大規模なモデルをビジネス シナリオに実際に実装できるようになります。

言い換えれば、企業は大規模モデル アプリケーションの急成長するエコシステムを受け入れ、活用する準備が真に整っていると言えます。

企業の大型模型に対する理解とニーズが成熟するにつれ、大型模型メーカーには新たなチャンスが生まれます。

この新たな潮流の下で、謝光軍氏は大型模型業界の将来展望についても簡単に説明した。

まず、技術の進歩とモデル推論コストの削減により、大規模モデルの価格は引き続き低下するでしょう。2024年の百度クラウドインテリジェンスカンファレンスでは、文鑫の主力大規模モデルの価格が過去1年間で累計90%以上下落したことも明らかになりました。

継続的なコスト削減により、顧客に持続的な利益をもたらし、より多くの企業がテクノロジーを利用できるようになり、効果的に活用できるようになります。

もちろん、モデルメーカーがまだ技術的な反復とアップグレードの段階に達していない場合、単に資本に頼って価格を補助することは持続可能な解決策ではありません。

第二に、新型であれ旧型であれ価格カーブは下がりますが、「価格下落」は勝利の戦略ではありません。

より優れた推論アーキテクチャを開発し、低い計算能力でより優れたモデルパフォーマンスを実現することは、長期的な注目に値する重要な分野です。

機能しなければ、いくら安くても無駄です。

最終的には、ロールの価格と性能は、各メーカーが自社のコストをどれだけ最適化し、管理できるかにかかっています。

同じ結果を達成するには、モデルメーカーは、モデルの使用に対してより手頃な価格を提供し、より一般的なシナリオでより大きなモデルを使用できるようにするために、エンジニアリング機能を継続的にアップグレードし、自社のコストを削減する必要があります。

千帆大型モデルプラットフォーム3.0からは、大型モデル業界の実装全体の傾向に対する百度の判断の縮図を見ることができます。

当初は大規模なモデル呼び出しと微調整サービスを提供していましたが、今日の生産性シナリオ向けのエンタープライズ レベルの統合サービス プラットフォームに至るまで、現場のニーズに合わせて継続的に反復されていることは変わりません。

大規模モデルが本格的に実装され、業務プロセスに統合されるにつれ、ツールプラットフォームをめぐる戦いが始まろうとしています。機会と課題を積極的に捉え、先導するQianfan 3.0は、この戦場で最も輝かしい存在の一つとなるでしょう。