|
2020年、Googleは画期的なプレプリント論文「深層強化学習によるチップ配置」を発表し、革新的な強化学習アプローチを用いたチップ配置設計を初めて公開しました。このイノベーションにより、GoogleはTPUチップの設計にAIを組み込み、人間の設計者を凌駕するチップ配置能力を実現しました。 2022年、Googleはさらに論文で説明されているアルゴリズムのコードをオープンソース化し、世界中の研究者がこのリソースを使用してチップブロックを事前トレーニングできるようにしました。 現在、このAI主導の学習アプローチは、TPU v5e、TPU v5p、Trilliumなど、複数世代の製品でテストされており、Google社内で大きな成功を収めています。さらに注目すべきは、Google DeepMindチームが最近、この手法に関する付録をNature誌に発表し、チップ設計への深遠な影響について詳述したことです。Googleはまた、20個の事前学習済みTPUモジュールに基づくチェックポイントをリリースし、モデルの重みを共有して「AlphaChip」と名付けました。 AlphaChip の登場は、チップ設計における AI のより広範な応用を告げるだけでなく、「チップ設計チップ」という新しい時代の幕開けを意味します。 AlphaChip: Google DeepMindがAIでチップ設計に革命を起こすGoogle DeepMind の研究成果の集大成である AlphaChip は、チップ設計における革新的な進歩により、世界中のテクノロジー業界の注目を集めています。 チップ設計は現代技術の頂点を極める分野であり、その複雑さは、極細の配線を介して無数の繊細な部品が複雑に接続されることにあります。現実世界のエンジニアリング問題の解決に初めて適用された強化学習技術の一つであるAlphaChipは、数週間から数ヶ月に及ぶ手作業を必要とせず、わずか数時間で人間の作業に匹敵する、あるいはそれ以上のチップレイアウト設計を実現します。この画期的な進歩は、従来の限界を超越する想像力への扉を開きました。 では、AlphaChip はどのようにしてこの偉業を達成したのでしょうか? さらに重要なのは、Googleが革新的な「エッジベース」グラフニューラルネットワークを提案したことです。これにより、AlphaChipはチップコンポーネント間の関係性を学習し、それをチップ設計全体に適用することで、各設計における自己改善を実現しました。AlphaGoと同様に、AlphaChipは「ゲーム」を通じて学習し、優れたチップレイアウト設計の技術を習得することができます。 TPUレイアウト設計の具体的なプロセスにおいて、AlphaChipはまず、オンチップおよびチップ間ネットワークモジュール、メモリコントローラ、データ転送バッファなど、前世代のチップの様々なモジュールを事前学習します。この事前学習フェーズにより、AlphaChipは豊富な経験を積むことができます。その後、GoogleはAlphaChipを用いて、現在のTPUモジュール向けの高品質なレイアウトを生成します。 従来の手法とは異なり、AlphaChipは、人間の専門家が練習を通じてスキルを向上させるのと同様に、チップ配置タスクを数多く解くことで継続的に最適化を行います。DeepMindの共同創設者兼CEOであるデミス・ハサビス氏は、 GoogleがAlphaChipを中心に強力なフィードバックループを構築したと述べています。
このプロセスを繰り返し、モデルとAIチップの同時アップグレードを実現しました。デミス・ハサビス氏は、「これがGoogle TPUスタックの優れたパフォーマンスの理由の一つです」と述べています。 AlphaChipは、人間の専門家と比較して、より多くのモジュールを配置するだけでなく、配線長を大幅に短縮します。TPUの新世代ごとに、AlphaChipは優れたチップレイアウトを設計し、より包括的な全体平面図を提供することで、設計サイクルを短縮し、チップ性能を向上させます。 Google の AlphaChip 設計のチップ数と、3 世代の TPU (v5e、TPU v5p) にわたる平均ライン長の削減 Google TPUの10年間の歩み:ASICへの永続性からAI設計の革新へTPU 分野の探求者および先駆者として、この技術分野における Google の開発は、同社の鋭い洞察力だけでなく並外れた勇気も示しています。 この頃、 FPGA(フィールド・プログラマブル・ゲート・アレイ)は、初期コストの削減とカスタム・デジタルロジックのリスク軽減という利点から、世間の注目を集めました。性能面では他のすべてのデバイスを凌駕するほどではありませんでしたが、市場で際立った存在となりました。 当時、業界ではムーアの法則によりFPGAの性能がASICの要求を上回ると一般的に予測されていました。しかし、プログラマブルな「ユニバーサルチップ」であるFPGAは、探索的生産や少量生産において非常に優れた性能を発揮し、GPUと比較して優れた速度、消費電力、コスト指標を達成しましたが、「汎用性と最適性は同時に達成できない」という原則から逃れることはできませんでした。FPGAが特定のアーキテクチャへの道を開くと、より特化したASICに取って代わられることになりました。 21世紀初頭以降、AI技術のブームが急速に進み、機械学習とディープラーニングのアルゴリズムは継続的に進化を遂げてきました。CPUやGPUでは多くの複雑なタスクをこなせないことが証明されたため、高性能で低消費電力のAI専用コンピューティングチップの需要が高まっています。こうした背景から、Googleは2013年にTensorFlowとJAXを中心としたTPUインフラストラクチャの構築にASICを選択するという大胆な決断を下しました。 注目すべきは、ASICの自社開発は、時間と費用がかかり、障壁が高く、極めてリスクの高いプロセスであるということです。方向性を誤れば、莫大な経済的損失につながる可能性があります。しかし、Googleは2012年にディープラーニングによる画像認識の飛躍的な進歩を遂げた後、より費用対効果が高く、エネルギー効率の高い機械学習ソリューションを模索するため、2013年にTPUv1の開発に着手し、2015年には第1世代TPUチップ(TPU v1)の社内展開を発表し、世界初のAI専用アクセラレータの誕生となりました。 幸運なことに、TPUはすぐに注目を集める素晴らしい機会に恵まれました。2016年3月、AlphaGoが世界囲碁チャンピオンのイ・セドルに勝利したのです。AlphaGoシリーズの第2世代として、このゲームはGoogle Cloud上で実行され、50個のTPUが計算に使用されました。 しかし、TPU が業界ですぐに大規模な成功を収めたのは、TPU の開発の新たな段階を真に導いた AlphaChip チップ レイアウト方式が提案されたときでした。 Google TPUの開発履歴 2020年、Googleはプレプリント論文「深層強化学習によるチップ配置」でAlphaChipの機能を実証しました。AlphaChipは、様々なネットリストとそのレイアウトを正確に予測し、入力ネットリストに対して豊富な特徴埋め込みを生成できる報酬型ニューラルアーキテクチャを設計することで、過去の経験から学習し、継続的に改善することができます。 AlphaChipは、パフォーマンス最適化をゲームの勝利条件と捉え、強化学習を用いてAIエージェントを訓練します。AIエージェントは累積報酬を最大化することでチップレイアウト能力を継続的に最適化します。1万回のゲームを実行し、AIは1万個のチップ上でレイアウトと配線を練習し、データを収集しながら、継続的に学習と最適化を行いました。 最終的に、AIは面積、電力、配線長の点で人間のエンジニアを上回る、あるいは同等の性能を発揮し、設計基準をはるかに短い時間で満たすことがわかりました。その結果、 AlphaChipは最新のアクセラレータネットリストを用いて、人間の作業と同等、あるいはそれを上回るレイアウトを6時間以内に生成できることが示されました。一方、既存の専門家であれば、同じ条件下で同じタスクを完了するには数週間を要していたかもしれません。 AlphaChipの支援を受け、GoogleのTPUへの依存は高まっています。 2023年12月、 Googleはマルチモーダルな汎用大規模モデルであるGeminiの3つの異なるバージョンをリリースしました。これらのモデルは、トレーニングにCloud TPU v5pチップを多用しています。 2024年5月には、第6世代TPUチップであるTrilliumをリリースしました。これは、単一の高帯域幅・低レイテンシPodで最大256個のTPUクラスタに拡張可能です。前世代と比較して、Trilliumはモデルトレーニングへの適応性が向上しています。 一方、TPUチップは徐々にGoogleを超えて市場認知度を高めています。 2024年7月30日、 Appleは研究論文の中で、Apple IntelligenceエコシステムでAIモデルAFMをトレーニングする際に、GoogleのTensor Processing Unit(TPU)クラウドクラスターを2つ選択したと発表しました。他のデータによると、生成AIスタートアップの60%以上、生成AIユニコーンの90%近くがGoogle CloudのAIインフラストラクチャとCloud TPUサービスを利用しています。 GoogleのTPUは、10年にわたる開発を経て、既にインキュベーション期間を終え、AI時代におけるGoogleのAI開発に優れたハードウェア性能を提供し始めていることが、あらゆる兆候から明らかです。さらに、AlphaChipに体現された「AIがAIチップを設計する」というアプローチは、チップ設計分野に新たな地平を切り開きました。 AIがチップ設計に革命を起こす:Google AlphaChipからエンドツーエンドの自動化までAlphaChipはAI設計チップの分野で際立っていますが、単独で戦っているわけではありません。AI技術の適用範囲は、チップの検証やテストなど、複数の重要な分野にまで広がっています。 チップ設計の核となるタスクは、チップの消費電力、性能、面積を最適化することです。これら3つの主要な指標は、Power Per Area(PPA)として総称されます。この課題は設計空間探索とも呼ばれます。従来、このタスクはEDAツールによって実行されていましたが、最適な性能を実現するために、チップエンジニアは常に手動で調整を行い、それをEDAツールに引き渡して最適化するというサイクルを延々と繰り返す必要があります。このプロセスは、家の中で家具を配置するようなものです。常に空間を最大限に活用し、人の流れを最適化するように努めていますが、それぞれの調整は家具を移動して配置し直すのと同じであり、非常に時間と労力がかかります。 この課題に対処するため、シノプシスは2020年に業界初のAIとEDAを統合したチップ設計ソリューションであるDSO.aiをリリースしました。DSO.aiは強化学習技術を用いて、人間の介入なしに設計空間を自動探索し、最適なバランスポイントを見つけ出します。このツールは既に複数の大手チップメーカーに採用されています。 例えば、MicrosoftはDSO.aiの導入後、性能を維持しながらチップモジュールの消費電力を10%~15%削減しました。STMicroelectronicsはPPA探索効率を3倍以上向上させ、メモリチップ大手のSK Hynixはチップ面積を5%削減しました。Synopsysのデータによると、DSO.aiは300件以上の商用テープアウトを支援しており、実際のチップ設計と製造におけるAIの重要な役割を示しています。 AI支援チップ検証に関して、シノプシスが発表した技術レポートでも、検証プロセスがチップ開発サイクル全体の最大70%を占めていると指摘されています。チップ1個のテープアウトコストは数億ドルに達することもあり、現代のチップの複雑さが増すにつれて、検証の難しさは明白です。この問題に対処するため、シノプシスはAIを活用して検証空間を最適化し、カバレッジの収束速度を加速するツール「VSO.ai」を発表しました。 VSO.aiは、従来のコードカバレッジを補完し、様々なカバレッジタイプを推論できます。また、検証経験から学習し、カバレッジ目標を継続的に最適化することも可能です。さらに、Synopsysは、ファウンドリで製造された不良チップをチップ開発者が特定するのに役立つツール、TSO.aiをリリースしました。 AIがチップ設計に深く関与していることから、大胆なアイデアが生まれています。AIを使ってチップ全体を設計できるでしょうか?実際、NVIDIAはすでにこの分野で実験を行っています。深層強化学習を用いて回路を設計し、 NVIDIAのH100では1万3000個近くの回路がAIによって設計されました。中国科学院計算技術研究所もAIを活用し、「Enlightenment No. 1」と呼ばれるRISC-Vプロセッサチップを5時間で生成しました。このチップは400万個のロジックゲートを誇り、Intel 80486に匹敵する性能を誇ります。 全体として、AIがチップ全体を設計する能力はまだ限られていますが、これは将来のチップ開発にとって間違いなく大きなチャンスとなります。継続的な技術進歩により、チップ設計におけるAIの潜在能力はさらに探求され、活用され、最終的にはチップ設計プロセス全体を変革するでしょう。 |
GoogleがTPUの秘密兵器「AlphaChip」を公開、Nature誌に掲載!AIチップ設計の発展史を徹底分析
関連するおすすめ記事
-
Nvidia と Microsoft が Deepseek との統合をリードし、OpenAI は緊急に 2,800 億元の新規資金を調達。
-
マイクロソフトとテンセントが技術衝突、TRELLISが3D生成におけるマルチフォーマットサポートの新たな方向性をリード、5,000問以上が正答!VIS-BenchがAIによる「空間記憶」学習を可能に。
-
AGI を宣伝するウルトラマンの情熱的なエッセイ: ディープラーニングは機能する、証明は不要。
-
清華大学の光学AIがNatureに掲載されました!物理ニューラルネットワークではバックプロパゲーションは不要になりました。
-
Ideal の AI 化の第一歩: Ideal Student アプリが、お父さんの宿題を手伝うことができるようになりました。
-
初めて!GPT-2 は無線通信の物理層を可能にします。北京大学のチームは、事前トレーニング済みの LLM に基づくチャネル予測方式を提案しています。