618ZXW

AI大規模モデルエコシステムとコンピューティングパワーカンファレンスが9月25日に開催され、約20名の業界リーダーが大規模モデルアプリケーションの新しいエコシステムについて議論しました。

9月25日、AI大規模モデルファクトリー主催の「AI大規模モデルエコシステムとコンピューティングパワーカンファレンス」が開催されました。中国で最も影響力があり、知識豊富なAIエコシステムカンファレンスとして、このカンファレンスではAI大規模モデルの最新の進歩と将来の動向について議論されました。

2024年は、業界から大規模AIモデルの実用化元年と目され、大規模AIモデルの産業応用は加速し、複数の業界・分野にまたがっています。AI大規模モデルは、現代のグローバル技術分野における重要な柱となりつつあり、かつてないスピードで社会変革を牽引しています。

大規模モデルの時代において、AIは本来、問題の原点に立ち返り、AIの視点で考え、AIの手法を用いて問題を解決し、包括的なボトムアップ変革を実現し、AIで未来を創造する必要があります。AIエンパワーメントはもはや「各種産業+人工知能」ではなく、「人工知能×各種産業」です。

大規模AIモデルは様々な産業に応用され、莫大な経済価値を生み出しています。現在、大規模AIモデル産業は北京の主要産業の一つとなっています。報道によると、2024年までに北京のAI産業のコア生産額は2,500億元を超え、放射生産額は1兆元を超え、国家AI発展のリーダーとなることが予想されています。あらゆる観点から見て、大規模AIモデルは私たちが注視すべき分野です。

こうした業界洞察に基づき、「AIネイティブ、未来を創る」が本カンファレンスのテーマとなりました。中国情報通信研究院(CAICT)チーフエンジニアの郭亮氏、360副社長の梁志輝氏、センスタイムのプロダクトディレクター兼リトルラクーンファミリー製品責任者の賈安雅氏、ユニサウンドテクノロジー副社長の劉盛平氏、アリババクラウドApsara Labのシニアプロダクトエキスパートの江暁氏、ミアンビインテリジェンスの副社長の苗俊偉氏、Zhipu AI大規模モデル産業アクセラレーターのディレクターの鄧瑞恒氏など、業界リーダー20名がカンファレンスに出席し、それぞれの進捗状況や独自の見解を共有しました。このAI大規模モデルエコシステムとコンピューティングパワーカンファレンスは、ライブテキストと画像によるオンラインと、展示によるオフラインの両方で開催され、数十の主要メディアがオンサイトで取材を行いました。

このカンファレンスの主催者であるAI Large Model Factoryは、大規模モデル技術分野の垂直産業メディアであり、業界の動向を深く分析し、第一線の情報を提供することに重点を置いています。大規模モデル分野で最も影響力のある業界のトレンドセッターの1つとなり、2024年のTOP10 AIメディアにランクインしました。現在、AI Large Model Factoryは、中国で100社以上の大規模モデルメーカーにサービスを提供しており、コンピューティングパワーに焦点を当てたコミュニティ、大手企業の基本大規模モデル、教育、ヘルスケア、eコマースなどの垂直アプリケーションなど、大規模モデル専用のアクティブな垂直コミュニティが数十あります。数十万人のAIGC大規模モデル実践者をカバーし、数百万人の大規模モデルファンを誇り、Huawei、Tencent、Alibaba、Baidu、iFlytek、Zhipu、360などの主要な大規模モデルメーカーにサービスを提供しています。

AI大型模型工場の共同創業者である孟浩偉氏は、将来的には大型模型メディアエコシステムプラットフォームとして、大型模型企業にサービスとコネクションを提供し、大型模型の波による新たなビジネスの未来を共に迎えたいと語った。

「私たちは今、この新たな時代の入り口に立っています。唯一確かなことは、AIの未来が私たちの想像を超えるということです。そして、私たち一人ひとりが、この未来の一部なのです。」

業界リーダー約20名が集結:AIは大規模モデルの時代後半に突入。

最初の講演者は、中国情報通信研究院(CAICT)クラウドコンピューティング・ビッグデータ研究所のチーフエンジニアである郭亮氏で、コンピューティングパワーの重要性を強調しました。郭亮氏によると、一般コンピューティングの時代、中国のコンピューティングパワーの年間成長率は太平洋の向こう側を上回り、約30%でした。一方、向こう側は約10%でした。インテリジェントコンピューティングの時代に入り、中国はインテリジェントコンピューティングにおいて大きな課題に直面しています。その中でも、最も大きな課題は、インテリジェントコンピューティングパワーの大きな格差であり、それが大規模モデルの開発を制限しているということです。

次の講演者は、360グループの副社長である梁志輝氏で、360 AI Searchと360 AI Browserにおける大規模モデルの応用、特にAI検索分野における最新の進歩と成果について詳細に紹介しました。

梁志輝氏はまず、「360 AI Search」を強調しました。これは、360の大規模モデル応用研究におけるスターアプリケーションシナリオです。年初にリリースされて以来、このアプリケーションは急速にPCユーザー数を増やし、ユーザー数は2億人を突破し、8月には月間アクティブユーザー数が8,000万人に達しました。その核心的な特徴は、大規模モデル技術を通じて「見て、質問して、答える」というインタラクティブな体験を実現し、従来の検索エンジンの「質問入力→リンクを返す」モデルを根本的に変革した点にあります。

360AI Searchは、360 Brain、Wenxin Yiyan、Tongyi Qianwen、Doubao、Kimiなど、国内最強の16種類のモデルを統合しています。360が蓄積した検索データとユーザー行動に基づき、強力な意図認識モデルを構築し、ユーザーの意図をより正確に理解します。タスク分解とモデルスケジューリングにより、多数の専門モデルのインテリジェントなスケジューリングを実現し、従来の検索エンジンをはるかに凌駕するインテリジェンス、柔軟性、効率性を実現し、「最強のモデルが最も困難な問題を解決する」ことを実現しています。

最後に、梁志輝氏は360が自社開発したCoE(Collaboration-of-Experts)技術アーキテクチャを紹介しました。これは、思考チェーンと「マルチシステムコラボレーション」を通じて、大規模モデルにおける「速い思考」と「遅い思考」の両方を可能にします。CoEアーキテクチャに基づくもう一つの製品であるAIアシスタントは、ユーザー定義のモデル呼び出しとデバッグをサポートし、アリーナモード、チームバトル、マルチモデルコラボレーションなどの機能を提供することで、ユーザーエクスペリエンスをさらに向上させます。現在、これらの製品はモバイルとPCプラットフォームで提供されており、ユーザーは直接アクセスして体験することができます。

次に登壇したのは、SenseTimeのプロダクトディレクターであり、Little Raccoonファミリー製品責任者であるJia Anya氏です。彼女は、SenseTimeの大規模モデル分野における経験を共有し、Little Raccoon AI大規模モデルコパイロットシリーズ製品について説明しました。Little Raccoon製品ラインには、開発者向けのコードアシスタントと、幅広いオフィスワーカー向けのデータ分析アシスタントの2つのアシスタントが含まれています。

Unisoundの技術担当副社長であるLiu Shengping氏は、Unisoundの山と海の大規模モデルを例に、大規模モデルの学習における同社の経験を共有しました。大規模モデルの学習は、事前学習、微調整、選好学習、そしてセルフプレイ最適化という4つのステップで進められます。さらに、7つのツール(プロンプトワードエンジニアリングや検索強化など)と秘密の公式(学習用データの生成、選択、割り当て)を含む、応用シナリオに合わせた最適化手法を提案しました。

劉盛平氏はまた、大規模モデルは様々なレベルで存在し、単一の大規模モデルで全てを解決できるわけではないことを強調した。異なる業界、異なる企業、異なるアプリケーションには、それぞれに対応するレベルの大規模モデルが必要である。

このカンファレンスには、アリババクラウドのApsara Labのシニアプロダクトエキスパートである江暁氏も登壇し、一般的な大規模モデルに対するアリババクラウドのアプローチを紹介しました。

昨年10月に発売されたアリババクラウドの大規模モデル製品「百聯(バイリアン)」を例に挙げると、この製品の基盤となるのは、アリババクラウドのAIコンピューティングサービスであるPaaSとIaaSの基本機能です。MaaS(Model as a Service)機能を基盤として、アリババクラウドは2つのエコシステムを構築しています。1つ目はアプリケーションエコシステムです。アリババクラウドは自社の大規模モデルをベースに、大規模モデル分析、大規模モデル作成、大規模モデル会議カスタマーサービスなどのネイティブアプリケーションを開発しています。さらに、このプラットフォーム上で開発者向けのサービスを提供できるパートナーも存在します。

2つ目の側面は、モデルエコシステムです。汎用大規模モデル(大規模言語モデルを含む)に加え、オープンソースモデル、業界特化型大規模モデル、マルチモーダルモデル、そしてBaichuanやLunar Dark Sideなどのサードパーティモデルも提供されており、これらはすべてBailianプラットフォーム上でアクセス・利用できます。これらが一体となって大規模モデルエコシステムを形成しており、現在、このプラットフォームには30万社を超える企業顧客が登録・利用しています。

続いて、 Facewall IntelligenceのMiao Junwei副社長が、エッジモデル分野におけるFacewall Intelligenceの探求と成果、および大規模モデルの「実装」に関する洞察と戦略について詳しく共有しました。

ミャオ・ジュンウェイ氏は、効率的な大規模モデルの鍵は知識密度、つまりモデル能力とモデルパラメータの比率にあると指摘しました。知識密度が高いということは、より少ないパラメータでより強力なモデル性能を実現することを意味します。また、同氏は「ウォールフェイサーの法則」を提唱しました。これは、技術の進歩に伴い、小型モデルが徐々に過去の大規模モデルに匹敵する能力を獲得し、推論コストを大幅に削減するというものです。ウォールフェイサーは、大規模モデルの基盤技術に関する洞察を通じて、大規模モデルの知識密度が平均8ヶ月ごとに倍増することを発見しました。これは「大規模モデル時代のムーアの法則」、あるいは「ウォールフェイサーの法則」と呼ばれる現象です。

彼は、モデルの能力とコンピューティングリソース要件の関係を示す曲線を描き、エッジデバイスにおける小型モデルの将来的な応用展望を示した。モデルの能力とハードウェアのコンピューティング能力が交差することで、特定のタスクが実行可能になる。携帯電話や自動車などのエッジデバイスのコンピューティング能力の向上に伴い、マルチモーダルやRAG(Rapid Application Optimization)といった複雑なタスクがエッジコンピューティングで実現されるようになるだろう。

苗俊偉氏は、Wallfacerのビジョンは大規模モデルをユーザーに近づけ、端末デバイスにAI機能を持たせることだと強調しました。端末デバイスのコンピューティングパワーを統合し、複雑なタスクを共同で完了させることで、汎用人工知能(AGI)の実現を目指しています。この戦略は、AI応用の障壁とコストを低減するだけでなく、AIの応用シナリオと可能性を大きく拡大するでしょう。

最後に、 Zhipu AI 大型モデル産業アクセラレーターのディレクターである Deng Ruiheng 氏が、大型モデル産業に関する Zhipu AI の考えをいくつか共有しました。

Zhipu AIは大規模モデルの開発において、計算能力とデータ品質の重要性を強調しています。同時に、大規模モデルの応用層における企業がいかにして競争障壁を築き、独占利益を獲得できるかという問題も提起しています。

また、AIネイティブアプリケーションを構成するものについての見解も共有し、新しい端末ハードウェアの出現によってまったく新しいAIネイティブ製品が生まれ、既存のモバイルインターネットエコシステムが変化する可能性があると示唆しました。

Zhipu Z-Planはスタートアップ企業への支援を広く受け入れており、支援対象企業がZhipuのモデルをベースとしている必要はありません。むしろ、モデルエコシステムの構築と相互の能力補完に重点を置いています。

新たなトレンドと大規模エコシステム:大規模モデルにはスローシンキングが必要

大型模型産業は爆発的な成長を遂げて22ヶ月目を迎え、実用化が本格化し、様々な業界が大型模型の力を借りて様々な障壁を突破しています。この過程で、大型模型企業は大きな利益を獲得し、将来のトレンドに関する独自の判断を下しました。カンファレンスでは、これらの洞察がゲストから共有されました。

現在、大規模モデルは膨大な知識を蓄積しており、単純な問題を迅速かつ正確に処理することができます。しかし、ユーザー数が増加し、ユーザーニーズが複雑化するにつれて、大規模モデルは将来、より複雑な問題に対処しなければならなくなります。梁志輝氏は、現時点では大規模モデルは「ゆっくり考える」能力を持つべきだと考えています。

「スローシンキング」は「ファストシンキング」と相対的なものです。ファストシンキングとは何でしょうか?簡単に言えば、人間の脳や大規模なモデルが一回の推論で答えにたどり着くことができる、例えば「1+1は何」といった直感的なタスクです。

大規模モデルにゲーム業界に関する調査レポートを生成させる場合、タスク実行プロセスにおいて、大規模モデルはタスクを複数の検索タスクに分割し、これらのタスクを同時に完了させてから最終的に推論を実行します。このプロセスには複数の大規模モデル、複数のAPI、複数のツールが必要となり、私たちはこれを「スローシンキング」と呼んでいます。このトレンドに対応して、360は7月末にCoEアーキテクチャをリリースしました。CoEアーキテクチャは、さらに多数の大規模モデル(16の大規模モデルと合計112のモデル)をバックグラウンドで稼働させています。これにより、最も生成力の高いモデルがスローシンキングタスクを解決し、複数のモデルが連携してリフレクションを行い、より高品質な回答を生成することができます。

対照的に、従来の MoE アーキテクチャは複数の大規模モデルによってサポートされていますが、単一のタスクに応答できるのは 1 つのモデルだけです。

さらに、大規模モデルの登場以降、市場では「AIが人間に取って代わる」「AIが人間の仕事を奪う」といった懸念が高まっています。これに対し、センスタイムのプロダクトディレクターである賈安雅氏は、こうした懸念をある程度説明するデータを示しました。

世界中の開発者を対象とした調査によると、60%以上がAIを活用したコーディングツールの使用を開始または継続しており、最大55%の効率向上を実現していることが明らかになりました。コード補完やリファクタリングといった特定のシナリオでは、55%未満の改善が見られたものもあれば、50%を超える改善が見られたことは注目に値します。

なぜ全体の効率が55%を超えるのでしょうか?これは、ソフトウェア開発がチームコラボレーションのタスクであり、一人の人間が単一の視点からプロセス全体を完了できるものではないためです。この文脈において、AIは個人や単一の仕事の効率を向上させるだけでなく、個々のタスクや仕事を超えてチーム全体の効率を向上させます。

ご覧のとおり、この大規模モデルは、自動車や電灯といった、私たちが過去に発明した道具と本質的に変わりません。私たちはこれら全てを、より良く働き、より良く暮らすことを目的として作りました。そして、それらが作られ、社会に受け入れられると、私たちの生活は確かに向上しました。さらに重要なのは、この過程で雇用市場が回復力を示したことです。例えば、自動車が登場すると、馬車は徐々に姿を消し、御者は「失業者」になりましたが、自動車運転手という職業が市場に登場しました。

つまり、個人であれ企業であれ、大きな変化に直面した時、新たなチャンスを掴む唯一の方法は、変化を受け入れ、新たな状況に適応することなのです。

全体として、大規模モデルが様々な産業に深く統合されるにつれ、大規模モデルの活気あるエコシステムが徐々に構築され、完成されつつあります。コンピューティングパワーやストレージといったインフラストラクチャから、大規模言語モデル、マルチモーダル大規模モデル、そして多様なAIアプリケーションに至るまで、大規模モデルの時代は始まったばかりです。

次回の AI ビッグモデルエコシステムカンファレンスを楽しみにしています!