|
国産の大型プラモデルキットが最近ちょっと錆びてきました。 コーディングの新たな最先端を確立したちょうどその時、Qwen 2.5シリーズがまたアップデートされました。 『三体』全3巻を一気に読むことは難しくなく、この69万字の主要な内容は45秒ほどで要約できます。 これは冗談ではありません。「干し草の山の中の針を探す」実験では、この最新のQwen2.5-Turboが100万トークンのコンテキストで完璧に動作することが示されています。 言い換えれば、Qwen2.5-Turbo は、これら 100 万のコンテキスト内の詳細を 100% キャプチャできることになります。 そうです、Qwen2.5 シリーズの最新メンバーであるQwen2.5-Turbo は、非常に長いコンテキストをサポートすることに重点が置かれており、信じられないほど競争力のある価格性能比を誇ります。
このアップデートを見て、多くのネットユーザーがすぐに***を明らかにしました: これほど長い文脈とこれほど速いペースでは、RAG はすでに時代遅れだと率直に言う人もいます。 一部の人々はそれを高く評価し始めています。オープンソース分野では、Qwen は現在 Llama よりも将来性が期待されています。 コンテキスト機能拡張はパフォーマンスに影響を与えない3 冊の長編小説を一気に読みきるだけでなく、Qwen では Qwen2.5-Turbo の拡張コンテキストのより実用的な機能も紹介しました。 たとえば、コードベース全体に関する情報を素早く把握するなどです。 デモで示されているように、Qwen-Agent リポジトリ内のすべてのコード ファイル (133,000 トークン) を含むテキスト ファイルをアップロードすると、大規模なモデルはすべてのコードを読み取り、わずか数秒でさまざまな詳細を正確に出力できます。
一度に7つの論文を読み、論文の分類と要約を完成させるのは全く問題ありません。 実際にテストしてみました。ご覧の通り、Qwen2.5-Turboはプロンプトなしでも、様々な論文の詳細情報を正確に把握し、比較分析を完了できます。 Qwen チームは、干し草の山の中の針を探す実験に加えて、より複雑な長いテキスト タスクで Qwen2.5-Turbo の機能もテストしました。 含む:
結果によると、RULERベンチマークテストでは、Qwen2.5-Turboが93.1ポイントを獲得し、GPT-4o-miniとGPT-4を上回りました。 LV-EvalやLongBench-Chatなど、現実世界のシナリオに近い長いテキストタスクでは、Qwen2.5-Turboはほとんどの次元でGPT-4o-miniよりも優れており、128トークンを超えるコンテキストの問題にさらに拡張できます。 既存のコンテキスト長拡張スキームでは、モデルが短いテキストを処理するときにパフォーマンスが大幅に低下することが多いことに注意する必要があります。 Qwen チームは、短いテキスト タスクでも Qwen2.5-Turbo をテストしました。 結果は、Qwen2.5-Turbo が、ほとんどのタスクで 100 万トークンのコンテキスト長を持つ他のオープンソース モデルを大幅に上回っていることを示しています。 GPT-4o-mini や Qwen2.5-14B-Instruct と比較すると、Qwen2.5-Turbo は短いテキスト タスクでは劣りませんが、前の 2 つのモデルの 8 倍のコンテキストを処理できます。 さらに推論速度の面でも、Qwen2.5-Turboはスパースアテンション機構を活用することでアテンション部分の計算負荷を従来の2/25に削減し、異なるハードウェア構成下で3.2~4.3倍の高速化を実現しています。 現在、Qwen2.5-Turbo は、HuggingFace および Moda コミュニティのユーザー向けにオンライン デモを提供しています。 API サービスは Alibaba Cloud Big Model Service Platform でも開始されており、OpenAI API と互換性があります。 モデルの重みはいつオープンソース化されるのでしょうか? アリババのTongyiオープンソースチームの責任者であるLin Junyang氏によると、現在オープンソース化の計画はないが、取り組んでいるとのことだ。 とにかく、HuggingFace の共同設立者である Thomas Wolf が、これを完成させるのに協力してくれました (冗談です)。 デモリンク: 参考リンク: - 以上- |
Qwen 2.5は100万もの超長コンテキストに対応し、推論速度が4.3倍に向上しました。ネットユーザーの皆様へ:RAGは時代遅れになりそうです。
関連するおすすめ記事
-
vLLMの中国語版ドキュメントが初めて公開されました!最新バージョンでは、スループットが2.7倍向上し、レイテンシが5分の1に削減され、大規模言語モデルの推論速度が向上します!
-
ホライゾン・ロボティクスはIPOに向けて50億人民元を調達、アリババとバイドゥの両社も応募し、香港における今年最大のテクノロジーIPOとなった。
-
推論モデルへの新しいアプローチがオープンソース化されました!DeepSeekとは全く異なり、思考プロセスを放棄し、思考に人間の言語に依存しません。
-
AI 搭載のミームジェネレーター: 普通のビデオを瞬時にミームに変換し、手描きのアニメーションを簡単に組み込むことができます。ぜひお試しください。
-
テレンス・タオ:ナビエ・ストークス方程式はもはや流体の良いモデルではないかもしれません。
-
CCFプログラマーカンファレンスの全スケジュールが公開されました。ぜひご登録の上、ダリでご参加ください!