|
生成AIの急速な発展により、AIアプリケーションがさまざまな情報機器と統合され始めており、 AI携帯電話、 AI PC 、さらにはAIカーもますます普及しつつあります。 一方で、人々はAI、特に大型モデルがもたらす利便性を生活に享受しています。いつでもどこでも端末に質問し、答えを得ることができます。内容は日常生活で遭遇した悩みであったり、単にAIと会話して退屈を紛らわせることであったりします。また、大型モデルが人生の教訓を解説する動画を気軽に撮影し、投稿して自慢することもできます。 一方、生成AIは端末機器に適用されてからは、 AI生産性向上に向けてさらに発展しています。 言い換えれば、ドキュメント、表、画像をデバイスに直接送信して解析・処理するなど、業務において大規模なモデルに依存することが増えています。 これにより、気づかれないままではあるが避けられない問題、つまりセキュリティが発生します。 なぜなら、AI がどのような情報機器に組み込まれているかに関係なく、使用中に個人情報、通信記録、閲覧履歴、生体認証データなど、大量のユーザーデータを収集・生成することになり、これらのデータはユーザーにとって非常に機密性が高いからです。 従来のレコメンデーションモデルは、ユーザーの閲覧履歴、検索履歴、購買行動といったデータのみに基づいていましたが、ユーザーを情報の繭に閉じ込め、興味を持ちそうなコンテンツだけがレコメンドされ、ユーザーの視野が制限されていました。これは、eコマースの観点から見ると、「既知に基づく価格差別」につながる可能性があります。 大規模モデルを搭載したこれらの AI 端末デバイスは、コミュニケーション、仕事、娯楽、金融など、ユーザーの生活のさまざまな側面に関わってきます。さらに将来的には、自動車と連携して「副操縦士」になったり、家庭用ロボットと連携して執事や介護者になったりすれば、自宅の内外で何が起こっているかをすべて把握できるようになるかもしれません。 したがって、セキュリティ上の問題が発生した場合、その影響は推奨モデルをはるかに超えて広がり、金銭的損失、個人情報の盗難、ユーザーの業務の中断など、深刻な結果につながる可能性があります。 多くの AI デバイスメーカーは、ローカル ファイルや情報のセキュリティが確保されると主張し、マーケティングにおいてオフライン操作を強調していると主張する人もいるかもしれません。 しかし、それは本当にそうなのでしょうか? いやいや。 AIGC アプリケーションにはエッジクラウド コラボレーションが必要です。端末での AIGC アプリケーションの使用に関する明確な傾向は次のとおりです。 AIGC アプリケーションが強力になるほど、エッジ クラウド連携が強化される必要があり、これがデータ処理モデルの将来のトレンドになります。 大規模モデルの適用には豊富な計算能力と大量の高品質データが不可欠であり、端末上でのユーザーエクスペリエンスに直接影響を与えるためです。 特に、端末に展開される多くのパーソナライズされたアプリケーションでは、トレーニングや推論のプロセスに大規模なコンピューティング リソースが関与すると、比較的弱いコンピューティング パワーを持つ端末では不十分であることがわかります。また、ユーザーが求める情報や回答に、専用のデータベースや高度に組織化された知識ベースのサポートが必要になると、これらがボトルネックとなり、AIGC アプリケーションのさらなる拡張が妨げられます。 では、エッジクラウド連携はどのようにしてこのボトルネックを打破するのでしょうか?その仕組みは以下のとおりです。 △ AI指向のエッジクラウド連携アーキテクチャ このエッジクラウド連携モデルでは、端末デバイスが主にユーザーに直接関連するさまざまなデータの収集と前処理を行います。 鋭い観察者のように動作し、周囲の環境の変化を常に感知し、さまざまな生データを収集し、予備的な分類とフィルタリングを実行します。 複雑な計算タスクとより多くのデータへのアクセスは、クラウドの強力なコンピューティング能力によって処理されます。クラウドは、膨大なコンピューティングリソース、高度なアルゴリズム、あるいは多数のパラメータを持つ複雑なモデル、そして個々のユーザーによるトレーニングやアクセスでは到底手に負えないほどの膨大なデータを備え、よりインテリジェントな脳のように、より迅速かつ正確に回答を提供したり、ニーズへの対応を支援したりします。 このように、端末デバイス自体の計算能力やデータが限られている場合でも、クラウド内の強力なAI計算能力とデータ蓄積を活用することで、より複雑な機能やサービスを実現できます。 例えば、画像認識の分野では、端末デバイスで写真を素早く撮影し、簡単な画像の切り抜きや調整を行った後、その画像データをクラウドにアップロードすることができます。 クラウドは、強力なコンピューティング能力とディープラーニングアルゴリズムを活用して、高精度な画像認識と分析を実行し、最終的に結果を端末デバイスに返して、ユーザーに詳細な画像情報と関連サービスの提案を提供します。 音声処理の面では、端末デバイスがユーザーの音声信号を収集し、ノイズ低減などの前処理を実行し、クラウドが音声認識、翻訳、意味理解などの複雑な処理タスクを担当することで、インテリジェントな音声アシスタントの強力な機能を実現します。 このモデルは優れていますが、さまざまな種類のクライアント データを処理のためにクラウドに送信する必要がある場合、信頼できるクラウド環境の重要性がすぐに明らかになります。 信頼できるクラウド環境とは、端末から送信されるデータのプライバシーを確保し、クラウド内に保存される重要なデータの処理およびやり取り中に保護し、不正アクセス、改ざん、漏洩を防止するクラウドベースのシステムを指します。データドリブン時代、特にエンタープライズアプリケーションにおいては、このような環境は極めて重要であり、その重要性は明白です。 一方、信頼できるクラウド環境は、ユーザーの信頼のレベルに直接関係します。 ユーザーが様々なAIベースのアプリケーションを使用する際、大量の個人データをクラウドにアップロードして処理する必要があります。クラウド環境が信頼できない場合、ユーザーのプライバシーデータが盗難または悪用される可能性があり、ユーザーはこれらのアプリケーションに対して大きな懸念と不信感を抱くことになります。 一方、信頼できるクラウド環境は、AI 技術とアプリケーションの長期的な発展と社会的受容にも影響を与えます。 クラウドのセキュリティが保証されず、データ侵害が頻発した場合、ユーザーの利益を損なうだけでなく、AI技術に対する社会の疑念や懸念を招き、AI技術のさらなる発展と推進を大きく阻害することになります。 では、どうすれば不安を解消できるでしょうか? CPUを調べてみましょう。 クラウドやデータセンターでは、AIデータ処理に関わるハードウェアはGPUや専用アクセラレータのようなものだと考える人が多いかもしれませんが、実際には、システムの中央処理装置であるCPUがシステム全体を完全に制御する能力を持っています。 たとえば、クラウドベースの共同データ処理では、CPU はアクセス制御、認証、データ暗号化など、データの送信、保存、処理を総合的に監視および管理できます。 対照的に、GPU と専用アクセラレータは主に特定のコンピューティング タスクに重点を置いており、システムに対する包括的な制御が欠如しており、セキュリティ ポリシーを効果的に実装することが困難です。 このプロセスで CPU が具体的にどのような役割を果たすかについては、読み進めてください。 CPUベースの信頼できる実行環境信頼できるクラウド環境を構築するには、Trusted Execution Environment (TEE) という重要なテクノロジーが不可欠です。 ハードウェア内に分離された領域を作成することで、メモリ内の機密データを不正アクセス、改ざん、漏洩から保護します。Trusted Execution Environment(TEE)は、オペレーティングシステムやハードウェア構成に依存せず、機密データとコードのセキュリティを強化します。 「エンドポイント クラウド コラボレーション」モデルで信頼できる実行環境を構築するには、次の側面から始めることもできます。 ハードウェアレベルのセキュリティ技術を採用: 現在、この分野で最も成熟し、広く利用されているテクノロジーは、Intel® Software Protection Extensions(Intel® SGX)とIntel® Trust Domain Extensions(Intel® TDX)です。これらのテクノロジーは、メモリ内に「エンクレーブ」と呼ばれる安全な領域を構築することでアプリケーションの分離を実現し、最も重要な機密アプリケーションと重要なデータを保護します。あるいは、TEE環境を仮想マシンレベルに拡張することで仮想マシンの分離を実現し、仮想マシン環境内のデータとアプリケーションを不正アクセスから保護します。 リモート認証およびキー管理システムを構築します。 インテル® データセンター認証プリミティブ(インテル® DCAP)などのテクノロジーを組み込むことで、リモート認証および鍵配布サービスを構築できます。これにより、認証済みのユーザーとデバイスのみがクラウドリソースにアクセスできるようになるため、不正アクセスや漏洩からデータをより効果的に保護できます。 信頼できる運用環境とツールを採用します。 Gramineのようなオープンソースの軽量オペレーティングシステムを活用することで、信頼できる実行インスタンスの作成、読み込み、実行が保証されます。Gramineはネットワーク通信の暗号化をサポートし、リモート認証プロトコル-TLS(RA-TLS)をプッシュダウンすることで、アプリケーションに対して透過的な暗号化ネットワーク通信を実現します。 SGX と TDX 上に構築されたクラウドベースの TEE 環境は、リモート認証などのサポート サービスとともに、AI タスク向けの完全なクラウドベースの信頼できるソリューションを構成し、包括的なデータ保護を提供します。 信頼できるデータ コンピューティング: クラウド プラットフォーム上に機密コンテナを構築して展開することで、TEE に基づくデュアル パスの信頼できる AI サンドボックスが構築され、AI アプリケーションの処理フローがそこに組み込まれ、ユーザーのプライバシー データがクラウドで「使用可能だが表示されない」状態になります。 信頼できるデータ転送: ビジネス側は転送中にユーザーのプライバシー データを暗号化し、リモート認証サービスを使用してビジネス開発担当者や保守担当者がプレーンテキスト データにアクセスするのを防ぎ、転送中のデータ セキュリティを確保します。 信頼できるデータ ストレージ:ビジネス側ではユーザーのプライバシー データを暗号化して保存し、関連する資格情報などの機密データも暗号化されて「エンクレーブ」に保存され、不正アクセスを防止します。 これは、このアーキテクチャが静的データを保護するだけでなく、処理中および対話中のデータ セキュリティを強化し、プロセス全体を通じてより優れた保護を提供することを示しています。 △ AI指向のエッジクラウド連携アーキテクチャー インテル® TDXテクノロジーアーキテクチャー 使い慣れた Intel® Xeon® プロセッサー上の関連セキュリティ テクノロジの調査は、AI アプリケーションがまだ主にトレーニングに重点を置いていた数年前にすでに成功したユースケースがありました。 たとえば、 Alibaba Cloud のエンタープライズ グレードの ECS インスタンス g8i ソリューションでは、第 5 世代 Intel® Xeon® スケーラブル プロセッサーを導入して、アプリケーションの導入が容易な、回復力に優れた信頼できる境界を備えた新しい階層型機密コンピューティング ソリューションを構築します。 これを踏まえ、Alibaba Cloudは、機密仮想マシンと機密コンテナの2つの利用モードを提供し、Intel® TDXを活用したBigDL大規模モデルプライバシー保護ソリューションの提供を開始しました。 これにより、AI推論段階だけでなく、前処理、データ準備、モデルトレーニング段階でもデータが保護され、データとモデルのプライバシーと機密性がより確実に確保されます。これにより、ユーザーのプライバシー保護が強化されるだけでなく、貴重なモデル資産の盗難も防止されます。 △インテル® TDX テクノロジー・アーキテクチャー 金融業界の平安科技をはじめとするAI応用のパイオニア企業は、より安全で信頼性の高いフェデレーテッドラーニング(Federated Learning)やプライバシー保護型機械学習アプリケーションを実現するために、SGXテクノロジーの活用を以前から検討してきました。もちろん、これらのアプリケーションはすべてトレーニング型のアプリケーションであり、複数の企業や機関が独自のデータを提供して共有モデルをトレーニングすることで、その過程でデータの保護を強化することを目指しています。 Xeon CPUのセキュリティ機能の進化を振り返ってみましょう。Intelはこの道を追求することを決してやめませんでした。 SGX は、第 2 世代 Intel® Xeon® スケーラブル プロセッサーのアドオン機能として初めて登場し、第 3 世代 Xeon® スケーラブル プロセッサーでは標準機能になりました。 TDXは、2023年に第4世代インテル® Xeon® スケーラブル・プロセッサー(コードネーム:Sapphire Rapids)で初めて導入されました。第5世代Xeon® スケーラブル・プロセッサーではTDXテクノロジーがさらに拡張され、市場でより広く利用できるようになりました。 AI技術の継続的な発展と応用シナリオの拡大に伴い、データのプライバシーとセキュリティ強化の必要性はますます高まっています。信頼できるクラウド環境の構築は、クラウド上のユーザーデータを包括的に保護するだけでなく、大規模モデルや生成AIのパーソナライズされた実装、そして「エッジクラウド連携」モデルにおけるデータセキュリティとプライバシー保護のための貴重な知見をもたらします。 これらすべては、Intel® Xeon® サーバー CPU の静かなサポートとパワーのおかげです。 現在、最新世代のXeon® 6プロセッサーには、6月にリリースされたEコア製品から、新たに発表されたXeon 6900Pシリーズまで、より強力なシングルコア性能、より高いコア/コンピューティング密度、より高いエネルギー効率、そしてより強力なメモリおよびI/Oサポートを備えた製品まで、SGXとTDXの両方が搭載されています。これらにより、これらのCPU製品には「より安全で信頼性が高い」という形容詞が付けられ、AIアプリケーションとデータのセキュリティ保護において、より実現可能で、使いやすく、ユーザーフレンドリーな保護が実現されます。 QuantumBit は、AI 推論の新時代に CPU がどのように活用されるかを普及させるために、技術の普及、業界の事例、実用的な最適化など、多角的な視点から総合的に解釈する「Most 'in' AI」コラムを開始しました。 このコラムを通して、CPUがAI推論の高速化、さらにはAIプラットフォーム全体やプロセス全体の高速化においてどのような実用的成果をもたらすのか、より多くの方々にご理解いただければ幸いです。本コラムでは、大規模モデルアプリケーションのパフォーマンスと効率を向上させるために、CPUをより効果的に活用する方法に焦点を当てます。 インテル® Xeon® スケーラブル・プロセッサーがエンタープライズ・クラウド・サービスのセキュリティを強化する方法の詳細なケーススタディについては、リンクをクリックしてください。 https://www.intel.cn/content/..._id=5908 |
なぜこのサーバーCPUがAIスマホやAIPCのセキュリティに欠かせないのか?
関連するおすすめ記事
-
DeepSeekのフルパワー微調整の秘密を公開!巨人の肩に乗って自分だけのモデルを構築しよう ― チュートリアルはこちら
-
「Datawhale Li Hongyi チュートリアル」が公開されました!
-
QuantumBit主催の「MEET 2025 Intelligent Future Conference」が発足しました!年間アワードの応募受付を開始しました。
-
Doubao 1.5 Pro がメジャーアップデート!他のモデルデータを使用せずに、MoE パフォーマンスが 7 倍向上。
-
トレーニング不要の DiT アクセラレーション! Meta は、ビデオを 2.6 倍高速に生成する新しい適応型キャッシュ方式を提案します。
-
ウルトラマンはマスク氏を公然と非難し、OpenAIの役員は「彼らはマスク氏を買収したいと言ったが、我々は何の申し出も受けていない」と述べた。