618ZXW

Qujing TechnologyはGL VenturesとZ Fundからの投資を主導し、数千万元の資金調達ラウンドを完了した。

Approaching.AIは最近、数百万人民元規模のエンジェル投資ラウンドを完了しました。このラウンドはGL VenturesとZ Fundが主導し、Tsinghua Alumni Seed Fundからの追加投資と、既存株主であるZhenzhi Venture Capitalからの継続投資が行われました。

今回の資金調達後、Qujin Technologyは研究開発投資をさらに増やし、大規模モデル統合ハードウェア・ソフトウェア推論ワークステーションなどの製品の反復を加速するとともに、より高性能な大規模モデル推論エンジンの研究開発と実装を推進し、より多くの企業が大規模モデルを実装して使用できるように支援します。

2023 年末に設立された Qujing Technology は、大規模モデル推論の最適化に注力しており、あらゆる革新的なチームがこの時代最先端の AI 生産性に平等にアクセスできるように、大規模モデルの使用コストを削減することに取り組んでいます。

昨年7 月、Qujin Technology と清華大学の KVCache.AI チームは、GPU と CPU を使用した異機種協調推論アーキテクチャを積極的に提案しました。彼らの協調オープンソース プロジェクトである KTransformers は、単一のコンシューマー グレード GPU と 1 つの CPU を組み合わせるだけで、数千億ノードの大規模スパース モデルで効率的に推論を実行できます。最近 DeepSeek-R1/V3 をサポートしたことで、国内外のコミュニティからすぐに大きな反響を集めました。数日のうちに GitHub のスターが 10,000 を超え、開発者は積極的にデプロイメント チュートリアル ビデオを再現して公開しました。Bilibili のアップマスターによるチュートリアル ビデオは公開当日に 20 万回以上再生され、サイトのトレンド リストでトップになりました。国際的な LocalLLaMA コミュニティでは、関連するディスカッション スレッドが 1 日でほぼ 1,000 件の「いいね!」を獲得し、数百人の開発者が活発な議論に参加しました。

製品・事業連携の面では、Qujing Technologyは、ストレージベースコンピューティングとシステム全体にわたる異機種混在システムというコアテクノロジーを基盤に、大規模モデルを統合したハードウェア・ソフトウェア推論ワークステーションおよびサーバーを先日リリースしました。これにより、業界で初めて大規模モデル推論の導入障壁を90%低減しました。低~中程度の同時実行シナリオ向けに設計されたこのタワー型ワークステーションは、DeepSeek 671Bパラメータモデルのスムーズな推論をサポートするだけでなく、様々な主流の大規模モデルの推論もサポートし、最大3つの大規模モデルを同時に実行できます。また、液冷システムとハードウェア・ソフトウェア統合設計を採用し、静音動作を実現しています。AIオフィススイートを内蔵しているため、すぐに使い始めることができ、中小規模のチームが「軽量」なハードウェアで「推論クラスター」の推論能力を実現できます。

発売以来、本製品は幅広い市場からのフィードバックを得ており、様々な業界の100社を超える企業が製品連携を模索しています。現在、推論ワークステーションは、政府、金融、法務の各分野で段階的に導入が進んでいます。さらに、Qujin Technologyは、大手セキュリティ企業のChangting Technologyや、中国の情報技術イノベーションクラウドのパイオニアであるChina Electronics Cloudなどと戦略的パートナーシップを締結しています。今後、Qujin Technologyは、大規模モデル推論における技術力と製品の優位性を活かし、パートナー企業と連携して、より優れた業界ソリューションを提供していきます。

Qujing Technologyは、Zhenzhi Venture Capitalの創設者であるRen Xuyang氏と、清華大学コンピュータサイエンス学科のWu Yongwei教授によって共同設立されました。創業チームは清華大学の卒業生で構成されており、CEOのAi Zhiyuan氏、最高戦略責任者のChen Chao氏、R&DディレクターのChen Xianglin氏はいずれもWu Yongwei教授の教え子です。創業前は、業界の有名企業で主要製品の研究開発と提供を主導しました。チームは、高性能コンピューティング、分散ストレージ、AIコンピューティングエンジンの最適化において10年以上の専門知識を有しています。清華大学のKVCache.AIチームは、Qujin Technologyの長期にわたる緊密な技術パートナーであり、このコラボレーションにより、Qujin Technologyは技術革新と製品実践の両方において主導的な視点を獲得しています。

今後、Qujing Technologyは大規模モデル推論の最適化に注力していきます。コンピューティングインフラの重点がトレーニングから推論へと移行する潮流の中で、Qujing Technologyは技術革新と製品革新を通じて、より多くの企業が大規模モデルを導入・活用できるようにすることで、大規模モデルが企業のコアビジネスにおいて真に大きな役割を果たし、企業のインテリジェント化プロセスを促進し、企業成長の新たな原動力となることを目指しています。

*この記事はQuantumBitからの許可を得て公開されており、表現されている見解は著者の見解のみです。