|
国産の大型プラモデルキットが最近ちょっと錆びてきました。 コーディングの新たな最先端を確立したちょうどその時、Qwen 2.5シリーズがまたアップデートされました。 『三体』全3巻を一気に読むことは難しくなく、この69万字の主要な内容は45秒ほどで要約できます。 これは冗談ではありません。「干し草の山の中の針を探す」実験では、この最新のQwen2.5-Turboが100万トークンのコンテキストで完璧に動作することが示されています。 言い換えれば、Qwen2.5-Turbo は、これら 100 万のコンテキスト内の詳細を 100% キャプチャできることになります。 そうです、Qwen2.5 シリーズの最新メンバーであるQwen2.5-Turbo は、非常に長いコンテキストをサポートすることに重点が置かれており、信じられないほど競争力のある価格性能比を誇ります。
このアップデートを見て、多くのネットユーザーがすぐに***を明らかにしました: これほど長い文脈とこれほど速いペースでは、RAG はすでに時代遅れだと率直に言う人もいます。 一部の人々はそれを高く評価し始めています。オープンソース分野では、Qwen は現在 Llama よりも将来性が期待されています。 コンテキスト機能拡張はパフォーマンスに影響を与えない3 冊の長編小説を一気に読みきるだけでなく、Qwen では Qwen2.5-Turbo の拡張コンテキストのより実用的な機能も紹介しました。 たとえば、コードベース全体に関する情報を素早く把握するなどです。 デモで示されているように、Qwen-Agent リポジトリ内のすべてのコード ファイル (133,000 トークン) を含むテキスト ファイルをアップロードすると、大規模なモデルはすべてのコードを読み取り、わずか数秒でさまざまな詳細を正確に出力できます。
一度に7つの論文を読み、論文の分類と要約を完成させるのは全く問題ありません。 実際にテストしてみました。ご覧の通り、Qwen2.5-Turboはプロンプトなしでも、様々な論文の詳細情報を正確に把握し、比較分析を完了できます。 Qwen チームは、干し草の山の中の針を探す実験に加えて、より複雑な長いテキスト タスクで Qwen2.5-Turbo の機能もテストしました。 含む:
結果によると、RULERベンチマークテストでは、Qwen2.5-Turboが93.1ポイントを獲得し、GPT-4o-miniとGPT-4を上回りました。 LV-EvalやLongBench-Chatなど、現実世界のシナリオに近い長いテキストタスクでは、Qwen2.5-Turboはほとんどの次元でGPT-4o-miniよりも優れており、128トークンを超えるコンテキストの問題にさらに拡張できます。 既存のコンテキスト長拡張スキームでは、モデルが短いテキストを処理するときにパフォーマンスが大幅に低下することが多いことに注意する必要があります。 Qwen チームは、短いテキスト タスクでも Qwen2.5-Turbo をテストしました。 結果は、Qwen2.5-Turbo が、ほとんどのタスクで 100 万トークンのコンテキスト長を持つ他のオープンソース モデルを大幅に上回っていることを示しています。 GPT-4o-mini や Qwen2.5-14B-Instruct と比較すると、Qwen2.5-Turbo は短いテキスト タスクでは劣りませんが、前の 2 つのモデルの 8 倍のコンテキストを処理できます。 さらに推論速度の面でも、Qwen2.5-Turboはスパースアテンション機構を活用することでアテンション部分の計算負荷を従来の2/25に削減し、異なるハードウェア構成下で3.2~4.3倍の高速化を実現しています。 現在、Qwen2.5-Turbo は、HuggingFace および Moda コミュニティのユーザー向けにオンライン デモを提供しています。 API サービスは Alibaba Cloud Big Model Service Platform でも開始されており、OpenAI API と互換性があります。 モデルの重みはいつオープンソース化されるのでしょうか? アリババのTongyiオープンソースチームの責任者であるLin Junyang氏によると、現在オープンソース化の計画はないが、取り組んでいるとのことだ。 とにかく、HuggingFace の共同設立者である Thomas Wolf が、これを完成させるのに協力してくれました (冗談です)。 デモリンク: 参考リンク: - 以上- |
Qwen 2.5は100万もの超長コンテキストに対応し、推論速度が4.3倍に向上しました。ネットユーザーの皆様へ:RAGは時代遅れになりそうです。
関連するおすすめ記事
-
マイクロソフトとテンセントが技術衝突、TRELLISが3D生成におけるマルチフォーマットサポートの新たな方向性をリード、5,000問以上が正答!VIS-BenchがAIによる「空間記憶」学習を可能に。
-
2024 DEMO CHINAカンファレンスのために、102社の初期段階のテクノロジー企業と200人以上の投資家が成都に集まりました。
-
初心者向けガイド: DeepSeek の微調整チュートリアルが登場!
-
公式発表!元OpenAI CTOの新会社:北京大学卒業生のWeng Liが参加、創設メンバーの3分の2はOpenAI出身。
-
Microsoft の「事故」により Linux が混乱に巻き込まれる: アップデート後、Linux が開かなくなる。
-
OSPOガイドライン: オープンソースコミュニティへの参加