618ZXW

清華大学関連企業が協力し、セキュリティビッグデータモデルを1兆ドル時代へ推進 | 長廷 x 曲靖

AIが広く普及する時代において、サイバーセキュリティはかつてない脅威に直面しています。

ハッカーとして行動できるAIは、かなり高い成功率で攻撃を自動化することを学習しました。イリノイ大学アーバナ・シャンペーン校の研究チームによる最近の研究では、GPT-4がCVEの脆弱性記述を読み取った後、最大87%の成功率で脆弱性を悪用する方法を学習できることが示されています。

攻撃者は時代の変化に合わせて新しい AI テクノロジーを駆使し、被害を与えています。

もちろん、防御側も黙って見ているわけではなく、大規模なAIモデルを積極的に対策に取り入れています。最近、重要な出来事がありました。

今年10億人民元の資金調達を完了したばかりの次世代サイバーセキュリティのリーディングカンパニーであるChangting Technologyは、同じく清華大学傘下のAIインフラ企業であるQujing Technologyと提携し、新世代のセキュリティビッグモデルソリューションを共同でリリースします。この提携により、 Changting AIのセキュリティビッグモデルパラメータの規模は1,000億を超え、あらゆる面でセキュリティ機能が大幅に強化されます。

これはサイバーセキュリティ業界にとって新たな時代の幕開けであり、業界は現在、数千億ドルに達する可能性のある大規模な段階に入っています。

AI攻防戦において、数千億のモデルを擁する大規模モデルはどのような変化をもたらすのでしょうか。

数百億から数千億へ、大規模モデルパラメータのスケールアップはサイバーセキュリティにどのような変化をもたらすのでしょうか?

サイバーセキュリティの分野では、攻撃の識別精度と検出の遅延という2 つの主要な指標があります。

企業のネットワークシステムでは、日々様々なアクセスや通話要求が発生しており、それぞれの要求が正当な業務要求なのか、それとも悪意のある攻撃なのかを判別する必要があります。大規模モデルを追加することで、システムはより迅速かつ正確な攻撃判定を行うことができます。

例えば。

頻繁に受け取る詐欺メールは、悪意のある攻撃の一種です。リンクをクリックしたり、ファイルをダウンロードしたりすると、コンピュータが侵害されます。

大規模モデルを組み込んだシステムは、ユーザーがメールを受信するとすぐにコンテンツ認識を実行します。複数の手がかりに基づいて、多段階の分析を行い、メールが悪意のあるものであるかどうかを判断します。悪意のあるメールと判断された場合、数秒以内に自動的にユーザーに警告し、リンクをクリックしたり添付ファイルをダウンロードしたりしないよう促します。

長廷科技が自社保有する30万件以上の攻撃サンプルを評価した結果、国内有数の大規模モデルの攻撃識別率は48.3%でした。しかし、長廷科技が曲靖科技と共同でリリースした数千億パラメータのセキュリティ大規模モデルソリューションを活用することで、このスコアは92.1%まで向上しました。

実際の攻撃トラフィックに基づいて構築されたプライベートデータセットを使用した別のテストでも、ChaitinAI はスコアを 65.5% から95.8%に向上させることに成功しました。

例えば、金融企業はセキュリティ要件がさらに高く、取引行動やデータに対するセキュリティ要件は極めて高く、ネットワーク環境も複雑です。同時に、システム内では多種多様な取引活動が大量に行われるため、ログデータも膨大になり、それに伴う攻撃手法も非常に多様化しています。

金融機関がネットワーク環境で異常な動作を示したとき、ChaitinAI セキュリティ ビッグデータ モデルは数秒以内に反応しました。

まず、膨大なログデータから対応するデータ挙動を迅速に抽出し、標準化しました。これらの挙動パターンに基づき、APT(Advanced Persistent Threat)攻撃であると判定しました。同時に、攻撃挙動に関連する主要な資産を抽出し、セキュリティ脆弱性をスキャンすることで、脅威挙動の源泉を明らかにしました。その後、攻撃トラフィックとファイルを分析した結果、正規ソフトウェアを装った悪意のあるツールキットの背後にある特定に成功しました。

ChaitinAIは、この攻撃に対する正確なインシデント分析レポートと対応戦略を提供し、全体のプロセスはわずか3分で完了しました。MTTD(平均検知時間)とMTTR(平均対応時間)は、30分から数時間、そして10分未満へと短縮され、同社のセキュリティチームは迅速に攻撃を特定し、意思決定を行うことができ、APT攻撃によるさらなる侵入と被害を阻止することに成功しました。

今後も以下のような改善が数多く予定されています。

  • イベント分析と処理提案の採用率が向上しました。
  • セキュリティレポートコンテンツ生成の品質スコアの向上
  • コードの問題検出とテストの精度が向上
  • 脆弱性修復推奨事項の採用率が増加しました。
  • 違法、有害、暴力的、ポルノ、その他の不適切なコンテンツを識別する能力が向上しました。つまり、不適切なコンテンツを識別する精度と再現率が向上しました。
  • 同じ目的を対象とする侵入テスト タスクの場合、大規模モデル駆動型のインテリジェント侵入テストにより、発見される脆弱性の数と悪用可能な脆弱性の数が増加します。
  • さまざまなシナリオに適したツール/戦略を選択することで精度を向上させる
  • 全体的な出力の堅牢性と安定性により、さまざまなシナリオにわたる出力品質の変動が低減されます。

スケーリング則の威力は、垂直領域内の大規模モデルにおいて再び証明されました

パラメータサイズの桁違いな増加は、モデルの汎用性と一般化能力に反映されます。特定のシナリオに適用した場合、これは単一の指標におけるブレークスルーだけでなく、包括的な改善につながります。

次の疑問は、なぜセキュリティ業界はこれまで数十億ドル規模のモデルを採用しなかったのかということです。気に入らなかったからでしょうか?(doge)

効果、効率、コストの不可能な三角形を打破する

主な問題には、セキュリティ テストの有効性、ユーザー応答の効率、およびプライベート展開コストの間の矛盾が含まれます。

セキュリティ業界における検出効率の追求は終わりがありません。小さなセキュリティ脆弱性でさえ、甚大な損失につながる可能性があるからです。大規模なセキュリティモデルは依然としてスケーリング則に従っており、数千億のパラメータを持つモデルは、数百億のパラメータを持つモデルよりもセキュリティがさらに強化されます。

一方、サイバーセキュリティは、大規模なモデルを用いた継続的な推論が求められるため、一瞬たりとも気を緩めることはできません。攻撃を検知した場合の対応のスピードも非常に重要です。

さらに、データプライバシーはセキュリティ業界にとって極めて重要です。大規模なモデルを使用するには、ローカル環境での展開と特定のデータを用いたトレーニングが必要です。数千億ものパラメータを持つモデルのトレーニングと維持には、膨大な計算リソースと投資が必要となり、数百万ドルもの費用がかかることも珍しくありません。

大規模安全モデルの実装において、高い安全性能、低い実装コスト、高いテスト効率を実現するという一見不可能と思われる三位一体の課題を、Changting と Qujing の協力により解決しました。

AIインフラ市場への新規参入者は、導入の障壁を下げています。

これは、垂直産業のシナリオに関する専門知識を持つ企業が、大規模なモデルテクノロジー企業と連携した典型的な事例です。

Changting Technology は、中国を代表するサイバーセキュリティ企業の 1 つであり、企業ユーザーにインテリジェントでシンプル、かつ安心なセキュリティ保護製品とソリューションを提供することに重点を置いています。

Qujing Technology は、企業や開発者に効率的で低コストの大規模言語モデル推論サービスを提供するために、高度な大規模モデル推論加速プラットフォームの構築と開発に重点を置く新興の AI インフラ企業です。

Qujing Technologyは先日、清華大学KVCache.AIチームと共同でオープンソースプロジェクト「KTransformers(https://github.com/kvcache-ai...)」をリリースしました。MoEモデルと長文アテンション演算子のスパース特性を活用し、異種パーティショニング戦略を採用することで、超大規模モデルと超長文テキストの推論性能を大幅に向上させ、ローカル展開のハードルを下げました。

プロジェクトの最初のデモンストレーションケースとして、KTransformers を使用すると、Mixtral 8x22B や DeepSeek-Coder-V2 などの数千億の要素を持つ大規模なモデルを、12 GB 未満のビデオメモリと数百 GB の RAM でローカルに実行でき、Llama.cpp の数倍のパフォーマンスを実現できます。

この技術により、数千億人のユーザーを抱える大規模モデルをローカルで使用するコストが 10 倍以上削減されました。

一方、KTransformers は、セキュリティ シナリオでも同様に重要な長いテキスト推論機能の大幅な最適化も実現できます。

コンテキストが最大 1MB と非常に長い場合でも、KTransformers は 24GB のビデオ メモリしかないデバイス上でタスクを完了し、16.91 トークン/秒の生成速度を達成します。これは、ほぼ完璧な「干し草の山の中の針」のようなパフォーマンスを維持しながら、Llama.cpp よりも 10 倍以上高速です。

このプロジェクトはGitHubでオープンソース化された後、すぐにHugging Faceの注目を集め、プロジェクトのリーダーであるLysandre Debutから賞賛を受け、国内外のコミュニティで多くの議論を巻き起こしました。

トレンドフォースは、オープンソース版に加え、高性能なKTransformers商用エンジンと、それをベースとした推論サービスプラットフォームもリリースしました。高度なカーネル最適化と配置/並列戦略により、推論機能はオープンソース版よりも強力かつ高速化されています。同時に、エンタープライズレベルのアプリケーション向けの高並列戦略も追加されており、チーム/エンタープライズユーザーにとってより最適なソリューションとなっています。

大規模モデルの実装は、あらゆる業界にとって不可欠な道です。

AIインフラの高度化と大規模モデルの安全性に対する懸念の高まりを背景に、同じく清華大学傘下のChangting TechnologyもQujing Technologyにいち早く注目した。

ChaitinAI のセキュリティ大規模モデルもパラメータと注意の両方においてスパース性を備えているため、Chaitin の技術的利点と完全に一致し、相互に有益な合意につながります。

ChaitinAI セキュリティビッグモデルをアップグレードするために、KTransformers テクノロジー戦略を採用しました

このニーズを満たすために、ChaitinAI セキュリティ 1000 億大規模モデル ソリューションが開発されました。

両者のコラボレーションは、技術的な能力のテストであるだけでなく、現実のシナリオでソリューションを実装し、提供する能力のテストでもあります。

さまざまな業界にわたる大規模モデルの迅速な導入は、業界特化型企業と AI インフラ企業との連携に依存しています。

大規模モデルの安全性と信頼性は、常に継続的な注意と最適化の重要な焦点となっています。このコラボレーションは、大規模モデル技術の発展の縮図とも言える革新的な実験です。

今後、AI技術の継続的な発展と業界からの需要の高まりにより、このようなコラボレーションはさらに増えていくでしょう。

こうした連携は、技術革新にとどまらず、セキュリティ、倫理、ガバナンスなど多面的な探求と実践を伴い、さまざまな業界にわたるビッグモデルの段階的な導入を共同で推進していくことが予想されます。

ChaitinAI の大規模データモデルソリューションのトライアルリンク: https://jsj.top/f/lzjQag

文進公式サイト:https://www.chaitin.cn/zh/cha...

KTransformers オープンソース リンク: https://github.com/kvcache-ai...

Approaching AI ウェブサイト: https://approaching-ai.com/