|
AI分野で最も影響力のある2人が同じイベントに登場しました。 OpenAIのCEOアルトマン氏は、O1の完全版が今後数カ月以内にリリースされることを示唆した。 Nvidiaの創設者ジェンスン・フアン氏は、新世代のBlackwellアーキテクチャGPUはO1推論を50倍高速化できると述べた。 アルトマンは推論モデルにおける o1 の役割を言語モデルにおけるGPT-2 ステージに例えました。 数年後には「推論モデルのGPT-4」が登場するでしょうが、今後数か月で大幅な改善が見られ、新しいパラダイムの進歩曲線は非常に急峻なものになるでしょう。
これを読んだ医学教授の中にはすでに辞任を検討している人もいる。 O1シリーズがLmsys Large Model Arenaに正式にデビューしました。初回のスコア計算では、数学タスクで大きなリードを獲得しました。唯一の欠点は、レスポンスが少し遅いことです。 これについての黄老氏の意見は次のとおりです。 NVIDIA の最新の Blackwell アーキテクチャ GPU は推論パフォーマンスを 50 倍向上させ、o1 モデルの応答時間を数分から数秒に短縮できます。 上記の情報はT-MobileのCapital Markets Dayからのもので、T-MobileはAIを活用した顧客サービスシステムの構築に向け、OpenAIと大型契約を締結したことを発表しました。 しかし、複数の企業間のコラボレーションに加えて、このイベントでは業界リーダー2人がAIの現在と未来についてさらに注目すべき洞察も共有しました。 O1 が数学やコーディング以外のタスクでどのように機能するかについては、O1 が主導し QuantumBit の協力を得てまとめられた以下の原文の詳細な翻訳を参照してください。 ウルトラマン: OpenAI の秘密は信念と集中力です。司会:まずはO1モデルの発売をお祝い申し上げます。この新モデルは本当に素晴らしいので、聴衆にご紹介いただけますか? サム・アルトマン:はい、私たちはこれに非常に興奮しています。これは長い間取り組んできたことです。GPTシリーズのモデルは「システム1」型の思考では優れたパフォーマンスを発揮しますが、私たちが本当に求めているのは推論できるシステムです。 人工知能がより複雑な問題を解決できるようになれば、その価値は計り知れないものとなるでしょう。GPT-4モデルで既にその一端を垣間ご覧いただいたかと思いますが、O1はまさに高度な推論能力を備えた最初のシステムです。複雑なプログラミング課題、数学の問題、科学的なパズルなど、どんな問題でも真に驚くべき結果を達成できます。私たちは、時間が経つにつれて、O1がGPTシリーズと同様に大きな意義を持ち、様々な新しい価値あるアプリケーションを解き放つようになると信じています。 司会:現在ご覧いただいているのはプレビュー版であり、今後迅速に改善していくと公に述べられていますが、今後数ヶ月でどのような変化が見られるのでしょうか? サム・アルトマン:現在私たちが目にしている新しい推論モデルは、GPT-2時代のものと似ていると思います。今後数年のうちに、GPT-4に匹敵するレベルに進化するでしょう。o1プレビューからo1正式リリースに移行する数ヶ月間でも、大きな進歩が見られるでしょう。 こうした新たなパラダイムには多くの興味深い点があると思いますが、その一つは改善曲線が非常に急峻であることです。現在のモデルでは解決できない問題が数ヶ月で解決されるかもしれませんし、それ以上の数の問題が解決されるかもしれません。最も重要なのは、チャットインターフェースだけでなく、全く新しい利用パターンが見られるようになることです。これらの機能を構築するには時間が必要ですし、他の機能にも時間が必要ですし、ユーザーが適応するのにも時間が必要です。これはGPTモデルとは大きく異なります。 AI の 5 つのレベルについて説明しました。L1 はチャットボット、L2 は先ほど説明した推論エンジン、L3 はエージェント、L4 は新しい科学的情報を発見できるイノベーター、そして L5 は組織です。 L1 から L2 に移行するのには多少時間がかかりましたが、L2 の最もエキサイティングな点の 1 つは、比較的早く L3 に到達できることだと思います。このテクノロジーが最終的にもたらすエージェントは、非常に影響力のあるものになることを期待しています。 (相互のお世辞部分は省略) 司会:少し話題を変えましょう。OpenAIがなぜリードできているのでしょうか?この分野で、これほどのスピードでモデルを開発できたのは、どのような工夫がされているからでしょうか? サム・アルトマン:まず、お褒めいただきありがとうございます。大変光栄です。私たちは多くの過去の成果を基盤として、この技術を開発しています。人工知能は古くからある分野で、人々は長年にわたり優れたアイデアを生み出してきました。人類の歴史を通して、半導体の発見、チップの製造、ネットワークや大規模データセンターの構築など、あらゆる努力が払われてきました。私たちが成し遂げてきたのは、既に成し遂げられてきたことのほんの一部に過ぎません。 しかし、私たちは最善を尽くし、非常に焦点を絞った研究プログラムを目指しました。他の研究プログラムが犯す間違いの一つは、十分な確信と焦点が欠けていることだと思います。一度何かがうまくいけば、それを再現するのは非常に簡単です。 ですから、成功するには 2 つの方法があると思います。1 つは、OpenAI や他の成功している企業のやり方を真似して、優れたファストフォロワーになることです。これは否定的な意味で言っているのではありません。何がうまくいくか様子を見て、それから改善と実行をうまく行う企業がたくさんあると思うからです。 限界に挑戦するというのは非常に困難で、複雑な環境を乗り越え、多くの人々と信念と集中力を持って交渉していく必要がありますが、それが前進するための最善の方法です。それが私たちの目指すところです。 私たちはディープラーニングを心から信じており、現在の状況からAGI、そしてその先へと進む道筋を強く信じています。しかし、その過程で得た知見に基づいて修正を加えることも厭いません。私たちはこれからも努力を続け、次のことに全力を尽くし、これが長期的にプラスの効果をもたらすと信じています。 これは私たちにとって本当に効果がありました。方法はとても簡単です。 ジェンセン・フアン:若者は皆、生涯を通じて一緒に過ごすロボットを持つことになります。(相互の賞賛とT-Mobileの事業詳細に関する長いセクションは省略) 司会:先ほどサム・アルトマン氏とAIの急速な発展についてお話を伺いましたが、その中で特に議論されたのは、極めて低いレイテンシと高速な応答時間の必要性です。これは、AIが従来のテキストベースのアプリケーションから、動画、表情、バーチャルアバターとのインタラクションへのリアルタイム応答へと移行しつつあるためです。これらの処理には、極めて高速な応答速度が求められます。将来のAIワークロードには、顧客のネットワークに近い場所にコンピューティングパワーを配置することが求められるでしょう。 ジェンセン・フアン:その通りです。無線コンピューティングとAIコンピューティングを1つのアーキテクチャに統合しました。私たちが構築したこのコンピューターは極めて低遅延で、CUDAも極めて低遅延です。時間的制約のあるトランザクションも処理できます。つまり、高品質な音声サービスを提供するために必要なすべての機能を備えています。 多くの人が気づいていないのは、グローバルワイヤレスネットワークが高度に冗長化されているということです。この冗長性は、需要がある時には極めて高いサービス品質を提供しなければならないという事実に由来しています。しかし、誰も必要としない時には、インフラはアイドル状態となり、再利用することができます。 したがって、ソフトウェア定義、高速化、AI対応を実現することで、ネットワーク全体を余剰容量へと転換し、必要に応じて他の用途に活用できるようになります。これは、通信業界にとって新たな大きな成長機会となるでしょう。 司会:本当に楽しかったです。残り数分ありますので、お帰りになる前に話題を変えて、何か面白いことをお話しましょう。 AIの最前線にいるすべての人々があなたと協力しているため、Nvidiaは素晴らしい視点を持っています。私たちの人生で最も変革的なテクノロジーが人々の生活を真に変える可能性があることを考えると、あなたは何に興奮しますか? AIは私たち全員にどのような影響を与えるとお考えですか? ジェンセン・フアン:私たちはこれから先、たくさんのデジタルアシスタントと共存していくでしょう。時間をかけて私と共に働き、どんどん賢くなり、私を理解し、タスクの完了を助けてくれるコンピューターを持つというアイデアは、本当に魅力的です。自分専用のR2-D2とC-3PO(スター・ウォーズのドロイド)を持つのも魅力的です。 私のR2は永遠に私と共にあります。多くの若者が、自分だけのR2を持ち、生涯を共にするでしょう。そのR2はデジタル版でも物理版でも構いません。科学者、エンジニア、哲学者、あるいは一般人であっても、誰もが持つことができます。私たちは皆、人生を歩む上で、この素晴らしいアシスタントを持つことになるのです。 (マスク氏もコメント欄でロボットに関するラオ・ホアン氏の意見に同意した。) ジェンセン・フアン:最近、サムはこれらのAIの推論能力がよりインテリジェントになるだろうと提案しましたが、それにはより多くの計算能力が必要です。現在、ChatGPTの各ヒントはパスですが、将来的には内部的に数百のパスを持つようになります。ChatGPTは推論を行い、強化学習を行い、より良い回答を作成しようとします。 これが、Blackwellアーキテクチャの推論性能を50倍向上させた理由です。推論性能が50倍向上したことで、特定のプロンプトへの応答にこれまで数分かかっていた推論モデルが、数秒で応答できるようになりました。これは全く新しい世界であり、私は非常に興奮しています。 司会:エネルギー消費の変化についてどうお考えですか?これはAIにおいて最も議論されている側面の一つ、つまり二酸化炭素排出量です。 ジェンスン・フアン:エネルギー消費を削減するには、AIを活用する必要があります。気候や天気予報において、従来のスーパーコンピュータを用いる場合と比べて、AIは1万倍のエネルギー効率を実現できることが分かっています。ムーアの法則は確かに終焉を迎えており、これらの計算を解くには新たなアプローチが必要です。 一つ例を挙げると、私の犬はニュートン力学を理解しておらず、ボールの軌道を把握できません。世界初のスーパーコンピューターはミサイルの軌道をシミュレーションするために作られたことは周知の事実です。しかし、少し練習すれば、犬は空中で簡単にボールをキャッチでき、時には宙返りさえもできます。では、どうやってキャッチするのでしょうか?これも全く同じ原理です。 そのため、私たちはAIに、物理学、力学、流体力学などを用いて天気を計算するのではなく、予測することを教えていきます。因果関係を完全に理解することはできないかもしれませんが、その予測は優れたものになるでしょう。私たちは単に明日の天気がどうなるかを知りたいのです。例えば、無線ネットワークでも同じことをしたいと考えています。電磁気学の基礎物理学、無線ビームの反射と屈折の仕組み、様々な環境への対応方法、そしてビームフォーミングの物理的原理を理解しているからです。 しかし、ネットワークを運用する際には、消費電力を抑え、スループットを高め、コストを削減しながら、より高品質なサービスを提供したいと考えるものです。そのため、基礎的な物理シミュレーションをリアルタイムで行う必要はありません。AIを活用することで実現できます。まず第一原理を理解した上でシミュレーションを行い、次にAIを用いてその基礎的な理解をシミュレーションするというアプローチは、エネルギー消費を大幅に削減できます。 モデルの学習には多くのエネルギーが必要であることを認識する必要があります。しかし、目標はモデルを学習することではなく、モデルを使用することです。これにより、多くのエネルギーを節約できます。 もう一つSalesforce が同時期に開催した別のイベントで、Jensen Huang 氏は次のような見解も示しました。
ビデオリプレイ: |