|
2024年、AIの波は猛烈な勢いで前進を続け、衰える兆しを見せず、静かに世界の輪郭を作り変え、記録破りの革命的な出来事を次々と起こしました。 今年、NVIDIAやBroadcomといったインフラベンダー、そしてMicrosoftといったクラウドサービスプロバイダーは、いずれもAI事業で力強い収益成長を遂げました。NVIDIAはAppleやMicrosoftを繰り返し追い抜き、世界で最も価値のある企業となりました。IoT AnalyticsによるGenAI市場に関する調査データによると、NVIDIAのデータセンターGPUの収益は2024年に142%増加し、時価総額は3.5兆ドルを超えると予想されています。 また、この年には、OpenAIとxAIがそれぞれ60億ドルを超える資金調達ラウンドを実施し、ハイテク株が中心のナスダック指数は初めて2万ポイントを突破しました。 AI開発ブームの継続的な高まりを観察し、市場調査会社IoT Analyticsは、2024年にこの分野で最も注目すべきトップ10のイベントを選出しました。 01. 最も注目すべきAIサイバーセキュリティインシデント全国規模のハッカーは攻撃能力を高めるためにLLMを利用している 2024年2月14日、マイクロソフトは、ロシア、中国、北朝鮮、イランなどの国家支援ハッカーが攻撃能力を向上させるためにOpenAIツールを使用していたと発表しました。 マイクロソフトは、これらの組織がAIをそれぞれ異なる方法で利用していると述べています。例えば、ロシア連邦軍参謀本部情報総局(GRU)は、通常、大規模言語モデル(LLM)を使用して「ウクライナにおける日常的な軍事作戦に関連する可能性のある様々な衛星およびレーダー技術」を研究しています。一方、北朝鮮のハッカーはLLMを使用してスピアフィッシング攻撃のコンテンツを作成し、イランのハッカーはこれらのモデルを使用してより説得力のある電子メールを作成しているとの報告があります。 02. 最も影響力のあるAI規制EU人工知能法 2024年3月13日、欧州議会は「EU AI法」を可決し、2024年8月1日に施行されました。 EU人工知能法 これは人工知能に関する世界初の正式かつ包括的な規制であり、AIの(誤用による)潜在的な危害に基づいてAIを4つのリスクカテゴリーに分類し、EU内でのAIの使用に関するルールを確立しています。 1. 許容できないリスク AI システムは、明示的に禁止されているシナリオで使用されます。これには以下が含まれますが、これらに限定されません。
2. 高リスク 最も許容されるリスクレベルであり、EU の AI 法の多くは、次のようなものを含むがこれに限定されない、この種のシステムの規制に重点を置いています。
付録I: https://artificialintelligenceact.eu/annex/1 付録III: https://artificialintelligenceact.eu/annex/3 高リスク AI プロバイダーは、リスク管理システムの確立、データ ガバナンスの実施、コンプライアンスを証明する技術文書の提供などの運用要件を満たす必要があります。 3. 限定的なリスク この分野は法案の中で占めるスペースが少なく、透明性に関する要件も緩やかです。つまり、これらのシステムの開発者および提供者は、エンドユーザーが人工知能とやり取りしていることを認識できるようにする必要があります。 4. 最小限のリスク これらの種類のアプリケーションは規制されていません。これには、AI ビデオゲームやスパム フィルターなど、EU 市場のほとんどの AI アプリケーションが含まれます。 EUの「AI法」は画期的だと歓迎されているが、他の国々ではAIを規制するための立法プロセスを開始したり、既存の法律と整合したガイドラインを提供したりしているが、これらはEUの「AI法」ほど拘束力のあるものではない。 例えば、日本政府は2024年4月、人工知能(AI)の責任ある開発と利用を促進することを目的とした、既存の法律に基づく自主ガイドライン「商用人工知能ガイドライン1.0」を発表しました。一方、ブラジル上院は2024年5月、AI(アルゴリズム設計および技術基準を含む)の規制を目的とした同国初の法案である法案2338/2024を提出し、2024年12月に可決されました。 米国では、連邦規制は制定されていないものの、少なくとも24の米国州、プエルトリコ、米領バージン諸島、ワシントンD.C.が2024年にAI関連の法案を導入しました。少なくとも31の州、プエルトリコ、米領バージン諸島がこれらの決議を採択し、実施しました。 03. 最も影響力のあるAIハードウェア開発Nvidia Blackwellシリーズとその発売延期 2024 年 3 月 18 日、NVIDIA は GTC 2024 で新しい Blackwell GPU アーキテクチャを発表し、B100、B200、GB200 (Grace CPU 1 基と B200 2 基を組み合わせたもの) の 3 つの GPU をリリースしました。 NVIDIA GB200 NVL2 NVIDIA は、Blackwell シリーズがパフォーマンスとエネルギー効率の大幅な向上を実現することを約束しており、1 秒あたりのクエリ数が 6 倍、GPU あたりの 1 秒あたりのトークン出力数が 30 倍増加するなど、H シリーズよりもパフォーマンスが向上することが期待されています。 しかし、Blackwellシリーズの発売は延期された。2024年8月、Nvidiaはクラウドサービスプロバイダーに対し、当初2024年第4四半期に発売予定とされていた期待のB200 AIチップについて、「製造工程の異例の遅い段階で」発見された設計上の欠陥により、発売が2025年まで延期されると伝えたと報じられた。 NvidiaのCFOであるコレット・クレス氏は、2024年11月の四半期決算発表で投資家に対し、GPUはフル生産状態にあると保証し、報道によるとNvidiaは2024年12月にB200をリリースする予定であるとのことですが、B200またはB100のリリースに関する公式情報は今のところ(2025年1月8日現在)、発表されていません。 04. 最も影響力のある合併と買収マイクロソフトとInflection AI 2024年3月19日、マイクロソフトはコンシューマー向けAI部門「Microsoft AI」を設立しました。この部門設立にあたり、マイクロソフトは米国のAIスタートアップ企業Inflection AIの共同創業者であるムスタファ・スレイマン氏とカレン・シモニャン氏、そしてInflection AIのチームメンバーの大半を採用しました。さらに、マイクロソフトはInflection AIと一連の商業契約を締結し、その中にはInflection AIの知的財産(およびその他の取引)に関する非独占的ライセンスも含まれています。 英国競争・市場庁(CMA)によると、マイクロソフトはインフレクションAIの資産の大部分を買収したとされています。CMAは、インフレクションAIが新たな経営陣とスタッフを抱える別個の事業体として存続する場合でも、このような取引はCMAの合併規制の管轄権に該当すると考えています。しかし、CMAは、一部ではこれを「準合併」と呼ぶものの、「競争の可能性を著しく低下させる」ものではないと付け加え、同様の状況で競争上の懸念が生じた場合、CMAは規制当局による審査を行うと述べました。 規制当局は、こうした取引が不公正な市場環境を生み出すかどうかを疑問視している。マイクロソフトによるインフレクションAIの買収はその一例に過ぎない。2024年初頭、米国連邦取引委員会(FTC)は、AmazonとGoogleによるAnthropicへの数十億ドル規模の投資、およびMicrosoftによるOpenAIへの投資(いずれも大企業による中小企業の重要な株式取得に繋がる)について調査を開始すると発表した。この調査は、これらの企業が合併や直接買収を行わずに企業の実質的な支配権を獲得し、規制当局の監視を逃れ、不公正な市場競争を生み出しているかどうかを判断することを目的としていた。 「準合併」や「買収」は新しい概念ではありませんが、AI競争が激化するにつれてますます頻繁に登場するようになり、世界の規制当局も(今のところは)こうした取引を阻止してはいませんが、注目し始めているようです。 05. 大規模モデルにおける最も重要な進歩Meta のオープンソース モデル LLaMA 3.1 は、クローズド ソース モデルよりも優れています。 LLaMa 3.1は、ChatGPTやClaudeと同等、あるいはそれらを凌駕しています。2024年7月13日、Metaは更新されたLLaMA 3.1をリリースし、OpenAI、Anthropic、Mistralなどの企業の主流モデルとのベンチマーク比較結果を公開しました。 Metaによると、LLaMA 3.1 405Bは15のベンチマークテストのうち、OpenAIのGPT-4、GPT-4o、そしてAnthropicのClaude 3.5 Sonnetモデルを7つのテストで上回りました(対照的に、Claudeモデルは6つのテストでリードしました)。最高スコアを達成しなかったテストでは、LLaMA 3.1のパフォーマンスは他のトップモデルと概ね同等でした。 LLaMA 3.1 405Bと競合製品の複数のベンチマークテストの比較結果 80億パラメータと700億パラメータのLLaMA 3.1モデル(それぞれLLaMA 3.1 8BとLLaMA 3.170B)を用いた同様のベンチマークテストでは、これら2つのモデルは12回のテストのうち11回でGoogle、Mistral、OpenAIの競合モデルを上回りました。Metaはバージョン405Bと同じ15回のテストをこれら2つの小規模モデルで実行しましたが、そのうち3回のテストでは他の比較モデルのデータが含まれていなかったことは注目に値します。
https://hyper.ai/cn/tutorials/33221 06. 最も有名なAI関連のレイオフクラーナ 2024年8月27日、スウェーデンの決済会社Klarnaは数百人の人員削減を発表し、AIが顧客サービスを担うようになるにつれて、さらなる人員削減が予想されると述べました。これは、AIが人間の労働力を代替する好例とされています。同社は、AIベースのチャットボットが700人の従業員の業務を代替し、平均問題解決時間を11分から2分に短縮できると明言しました。つまり、AIが人間の労働力を完全に代替したのです。さらに、Klarnaはエンジニアリングを除くすべての職種の採用を一時停止すると発表しました。 しかし、Klarna は孤立したケースではありません。 2024年7月、米国の税務ソフトウェア企業Intuitは、「Intuit Assist」などのAIツールの開発に注力するため、1,800人の従業員を解雇すると発表した。同社は、これらの解雇はコスト削減が目的ではないことを明確に表明した。同時に、Intuitは2025年のAI計画を支えるため、エンジニアリング、製品、そして顧客対応部門(営業やマーケティングなど)で少なくとも同数の従業員を採用すると述べた。Intuitの解雇規模はより大規模であったが、同社は単に戦略的にAIへの移行を進めていただけであり、一方Klarnaは既にAIによる代替手段を導入していた。 AIスキルを欠く技術系プロフェッショナルも、業界の変革への適応を迫られています。前述の2つの事例は、AIがカスタマーサービスなどの非技術系業務を担う可能性があることを示唆しています。一方で、大手テクノロジー企業はAIへの注力に注力する中で、技術系スタッフを大幅に削減しています。テクノロジー業界の失業率は2024年を通して変動し、6月には4年ぶりの高水準となる3.7%に達した後、9月には2.5%前後まで低下しました。 2024 年に技術職で行われた主要なレイオフには以下が含まれます。
世界的テクノロジー企業Googleは、Gemini GenAI(旧称Bard)などのAI製品への注力強化のため、ハードウェアやGoogleアシスタントを含む複数のチームで1,000人以上の人員削減を実施しました。Google CEOのサンダー・ピチャイ氏は、AIへのリソース再配分を継続する中で、2024年を通してさらなる人員削減が見込まれると示唆しました(2024年12月、ピチャイ氏は管理職の10%削減を発表しました)。
ソフトウェアおよびクラウドサービスのグローバル大手であるマイクロソフトは、Mixed Reality(MR)部門とAzure部門で1,000人以上の従業員を解雇すると発表した。マイクロソフトの戦略・ミッション・テクノロジー担当エグゼクティブバイスプレジデント、ジェイソン・ザンダー氏は、同社宛てのメールで、今回の措置は「AIの波を定義し、顧客のAI適用の成功を支援すること」にさらに注力するためだと述べた。
多国籍ネットワークハードウェア・ソフトウェア企業であるシスコは、従業員の約7%を解雇し、クラウドアプリケーション向けAIネットワークの構築やAIインフラなど、AIへの投資に重点を移します。これは、2024年2月に実施された約4,000人の人員削減に続くものです。 2025年には、AI関連のレイオフがさらに増加すると予想されています。IoT Analyticsの2024年初頭の調査によると、AIとGenAIは雇用主が最も求めるスキルとなっています。さらに、Staffing Industry Analystsが2024年に900人以上の米国経営幹部を対象に実施した調査では、企業の30%が従業員の一部をAIに置き換えており、2025年にAI導入を計画している企業のうち38%が来年中に従業員をAIに置き換える予定であることが明らかになりました。 しかし、一部の企業にとってAIは単なるスケープゴートに過ぎないかもしれません。多くの企業がAIをレイオフの言い訳にしている可能性があることは注目に値します。レイオフはコスト削減や利益増加のためだと直接認めるよりも、AIのせいにする方がネガティブな印象を与えにくいからです。さらに、レイオフをAIのせいにすることは、効率性と生産性の向上を示唆するため、投資家のインセンティブを高めることにもつながります。 2024年2月、米国のテクノロジー大手MetaのCEO、マーク・ザッカーバーグ氏は、レイオフはパンデミック後の時代の現実を反映しているという見解を示した。パンデミックの間、企業は不確実性に対処するために「過剰拡大」し、現在は効率性を向上させるために業務の合理化を試みている。 07. AI企業が直面する最大の課題LLMのパフォーマンスを向上できない 大規模なLLM研究開発プロジェクトは期待に応えられなかった。OpenAIは2024年9月、社内でOrionと呼ばれる新しい大規模言語モデルの初回トレーニングを完了した。OpenAIは、2024年5月にリリースされたGPT-4oとGPT-4 Turboを比較したような飛躍的な進歩を期待していた。しかし、報告によると、このモデルはまだ期待に応えておらず、既存モデルとの性能差はGPT-4oとGPT-4 Turbo、あるいはGPT-4とGPT-3.5ほど顕著ではないという。 しかし、OpenAIだけが挫折に見舞われた企業ではありません。GoogleとAnthropicも、GeminiモデルとClaudeモデルのアップデートに対する市場の期待に応えられず、新バージョンのリリースが遅れているようです。 新たなデータ制約は、LLM開発におけるパラダイムシフトを促しました。近年、大手言語モデル企業は、モデルの大きなブレークスルーを主に「スケーリング則」 、つまり計算能力の向上、データセットの大規模化、そしてモデルの大規模化がAI能力の飛躍的な向上につながるという理論に基づいて期待してきました。 しかし、 2024年には新たな問題が浮上しました。法学修士(LLM)の訓練に利用できる新しい(人間の)情報が限られているのです。初期の法学修士(LLM)は、主にインターネットなどの情報源に頼り、数十年にわたる人間の知識を蓄積していました。しかし、過去2年間で、新しく、信頼性が高く、独自の人間情報が追加されることは比較的少なくなりました。 LLMの一般公開以降、ますます顕著になっているもう一つの問題は、AIの「カニバリズム」です。生成型AI(GenAI)はオンラインコンテンツ作成において広く利用されており、LLMはAI生成コンテンツを徐々に取り込みます。この循環的な取り込みは、人間によるオリジナルコンテンツの価値をさらに低下させ、希薄化するだけでなく、モデルが学習した情報の精度にも影響を与える可能性があります。 AIの限界に疑問を呈する声がある一方で、進歩の意味を再考する声も上がっています。法則的モデリング(LLM)のブレークスルーにおける限界と新たなデータの不足に直面し、AI研究機関は「スケーリング則」が真に普遍的なものではないという事実を受け入れつつあるようです。AI分野の一部には、様々なモデルが徐々にその能力限界に近づいていると考える声もあります。しかし、楽観的な見方をする人々は、「スケーリング則」は動的に捉えるべきであり、新たな開発パラダイムに適応する必要があると主張しています。そのため、AIのトレーニングと開発においては、「テスト時スケーリング」などの新たな戦略を採用すべきだと主張しています。 新機能は、LLMの進歩を阻む限界に対処しています。LLMの開発は停滞しているかもしれませんが、AI企業は依然として既存モデルへの付加価値向上に取り組んでいます。例えば、OpenAIは2024年9月にo1モデルとo1-miniモデルのプレビュー版をリリースし、同年12月に正式リリースし、さらに近日発売予定のo3モデルも発表しました。o1モデルはクエリの処理に時間がかかりますが、「思考の連鎖」アプローチを採用しており、回答を生成・洗練させてから回答します(人間が複雑な問題を解決する際に思考プロセスを分解するのと同様です)。これにより、推論能力と回答精度が向上します。 さらに、2024年10月には、OpenAIがChatGPT Searchをリリースし、ChatGPTによるウェブ検索が可能になりました。ユーザーはChatGPTインターフェースを通じて情報を検索し、出典を付した検索結果を得ることができます。そして2024年12月には、OpenAIとGoogleがそれぞれSora(DALL-E 3ベース)とVeo2をリリースし、動画生成機能をさらに拡張しました。 08. 最も重要なAI研究の成果2つのノーベル賞 2024年10月8日と9日、AI関連研究に初めてノーベル物理学賞と化学賞が授与されました。2024年のノーベル物理学賞は、人工ニューラルネットワークを用いた機械学習技術の開発により、プリンストン大学名誉教授の物理学者ジョン・J・ホップフィールド氏と、トロント大学名誉教授で元Google研究員のジェフリー・ヒントン氏に授与されました。 2024年ノーベル物理学賞受賞者 一方、Google DeepMindのCEO兼共同創設者であるデミス・ハサビス卿と、Google DeepMindの研究ディレクターでありAlphaFoldの共同開発者でもあるジョン・M・ジャンパーは、タンパク質構造を正確に予測できるAIアルゴリズムを開発したことにより、2024年のノーベル化学賞を受賞し、科学界を50年間悩ませてきたタンパク質構造予測問題に成功した。 2024年ノーベル化学賞受賞者 09. 最大規模のエンタープライズレベルのAI投資アマゾン AmazonはデータセンターとAIに多額の投資を行っています。2024年10月31日の決算説明会で、CEOのアンディ・ジャシー氏は、 2024年の設備投資(CAPEX)は750億ドルに達し、そのうちAWSとAIが最大の割合を占めると述べました。これにより、Amazonのデータセンター拡張(不動産および設備を含む)への総支出は226億ドルとなり、前年比81%増となりました。 データセンターに投資しているのはAmazonだけではありません。Amazon、Microsoft、Alphabet、Metaといった巨大企業の設備投資額は、2024年までに合計2,000億ドルを超えると予測されています。これらの大手テクノロジー企業は、設備投資額の継続的な増加計画も発表しており、モルガン・スタンレーは、ハイパースケール企業の設備投資額が2025年までに3,000億ドルを超えると予測しています。この支出の大部分はハイエンドGPUと、それらを収容するために建設された大規模なデータセンターに充てられていますが、サーバーの運用にかかるエネルギーコストなど、関連コストも発生します。 これらのAI関連テクノロジー企業は、投資家に対し、自社の支出は破壊的技術への先行投資であり、「作ればユーザーは来る」というモデルに似ていると説得しようとしている。つまり、将来の収益性の高い製品を支えるためには、まずインフラを整備する必要がある(例えば、列車を走らせるには線路を敷設する必要がある)。しかし、収益がコストに見合うかどうかについては疑問が残る。 例えば、データセンター(施設、サーバーなどを含む)の建設と継続的なエネルギー支出は投資収益率(ROI)の計算に含めることができますが、データセンターは静的なものではありません。GPUメーカーはより強力なチップの開発を継続し、企業は競争力を維持し、より高度なAIコンピューティングの需要を満たすために、機器を継続的にアップグレードする必要があるかもしれません。さらに、コンピューティング能力の向上はエネルギー消費量の増加につながり、運用コストをさらに増加させます。 10. AI関連の資金調達ラウンド最大規模Databricks、OpenAI、xAI 2024年12月17日、米国を拠点とするAIクラウドデータプラットフォームであるDatabricksは、100億ドルのシリーズJ資金調達ラウンドの完了を発表しました。これは2024年最大のベンチャーキャピタル投資となります。このラウンドの後、Databricksの評価額は620億ドルに達しました。 OpenAIとxAIも多額の投資を受けました。2024年10月、OpenAIはシリーズBの資金調達ラウンドを完了し、66億ドルを調達し、資金調達後の評価額は1570億ドルに達したと発表しました。これは、Databricksが記録を更新するまで、2024年最大のベンチャーキャピタルラウンドでした。 イーロン・マスク氏のxAIは、2024年5月にシリーズBの資金調達ラウンドを完了し、60億ドルを調達しました。これは一時、年間最大の資金調達ラウンドとなりました。その後、2024年11月にはシリーズCの資金調達ラウンドを完了し、さらに60億ドルを調達したことを発表し、企業価値は500億ドルに上昇しました。 参考文献: https://iot-analytics.com/ai-2024-10-最も注目すべきストーリー |
2024年の主要なAIイベントを振り返る:隠れたチャンスと業界の課題
関連するおすすめ記事
-
どのモデルも合格しませんでした! 北京大学/先端技術通信研究所は、特に長いテキストの理解と生成を評価するための非常に難しいベンチマークを提案しています。
-
Doubao Big Model チームは、トレーニングのスループットを最大 20 倍向上させる RLHF フレームワークをオープンソース化しました。
-
2025 年グローバル機械学習テクノロジー カンファレンスが間もなく開催されます。世界中のトップ AI 専門家が集まり、将来のテクノロジーのトレンドについて議論します。
-
Zhipu AI の回答: 米国のエンティティ リストに追加されました。
-
DeepSeek の力で、北京大学の幾何学モデルは IMO の金メダルレベルに到達しました。問題をフルパワーで解くには、32 個の CPU コアと 1 個の 4090 だけで十分です。
-
アリババクラウドと清華大学は、オープンソースAI大規模モデル推論プロジェクト「Mooncake」を正式に発表した。