|
国産の大型プラモデルキットが最近ちょっと錆びてきました。 コーディングの新たな最先端を確立したちょうどその時、Qwen 2.5シリーズがまたアップデートされました。 『三体』全3巻を一気に読むことは難しくなく、この69万字の主要な内容は45秒ほどで要約できます。 これは冗談ではありません。「干し草の山の中の針を探す」実験では、この最新のQwen2.5-Turboが100万トークンのコンテキストで完璧に動作することが示されています。 言い換えれば、Qwen2.5-Turbo は、これら 100 万のコンテキスト内の詳細を 100% キャプチャできることになります。 そうです、Qwen2.5 シリーズの最新メンバーであるQwen2.5-Turbo は、非常に長いコンテキストをサポートすることに重点が置かれており、信じられないほど競争力のある価格性能比を誇ります。
このアップデートを見て、多くのネットユーザーがすぐに***を明らかにしました: これほど長い文脈とこれほど速いペースでは、RAG はすでに時代遅れだと率直に言う人もいます。 一部の人々はそれを高く評価し始めています。オープンソース分野では、Qwen は現在 Llama よりも将来性が期待されています。 コンテキスト機能拡張はパフォーマンスに影響を与えない3 冊の長編小説を一気に読みきるだけでなく、Qwen では Qwen2.5-Turbo の拡張コンテキストのより実用的な機能も紹介しました。 たとえば、コードベース全体に関する情報を素早く把握するなどです。 デモで示されているように、Qwen-Agent リポジトリ内のすべてのコード ファイル (133,000 トークン) を含むテキスト ファイルをアップロードすると、大規模なモデルはすべてのコードを読み取り、わずか数秒でさまざまな詳細を正確に出力できます。
一度に7つの論文を読み、論文の分類と要約を完成させるのは全く問題ありません。 実際にテストしてみました。ご覧の通り、Qwen2.5-Turboはプロンプトなしでも、様々な論文の詳細情報を正確に把握し、比較分析を完了できます。 Qwen チームは、干し草の山の中の針を探す実験に加えて、より複雑な長いテキスト タスクで Qwen2.5-Turbo の機能もテストしました。 含む:
結果によると、RULERベンチマークテストでは、Qwen2.5-Turboが93.1ポイントを獲得し、GPT-4o-miniとGPT-4を上回りました。 LV-EvalやLongBench-Chatなど、現実世界のシナリオに近い長いテキストタスクでは、Qwen2.5-Turboはほとんどの次元でGPT-4o-miniよりも優れており、128トークンを超えるコンテキストの問題にさらに拡張できます。 既存のコンテキスト長拡張スキームでは、モデルが短いテキストを処理するときにパフォーマンスが大幅に低下することが多いことに注意する必要があります。 Qwen チームは、短いテキスト タスクでも Qwen2.5-Turbo をテストしました。 結果は、Qwen2.5-Turbo が、ほとんどのタスクで 100 万トークンのコンテキスト長を持つ他のオープンソース モデルを大幅に上回っていることを示しています。 GPT-4o-mini や Qwen2.5-14B-Instruct と比較すると、Qwen2.5-Turbo は短いテキスト タスクでは劣りませんが、前の 2 つのモデルの 8 倍のコンテキストを処理できます。 さらに推論速度の面でも、Qwen2.5-Turboはスパースアテンション機構を活用することでアテンション部分の計算負荷を従来の2/25に削減し、異なるハードウェア構成下で3.2~4.3倍の高速化を実現しています。 現在、Qwen2.5-Turbo は、HuggingFace および Moda コミュニティのユーザー向けにオンライン デモを提供しています。 API サービスは Alibaba Cloud Big Model Service Platform でも開始されており、OpenAI API と互換性があります。 モデルの重みはいつオープンソース化されるのでしょうか? アリババのTongyiオープンソースチームの責任者であるLin Junyang氏によると、現在オープンソース化の計画はないが、取り組んでいるとのことだ。 とにかく、HuggingFace の共同設立者である Thomas Wolf が、これを完成させるのに協力してくれました (冗談です)。 デモリンク: 参考リンク: - 以上- |
Qwen 2.5は100万もの超長コンテキストに対応し、推論速度が4.3倍に向上しました。ネットユーザーの皆様へ:RAGは時代遅れになりそうです。
関連するおすすめ記事
-
Doubao版のHerがバージョンアップしてリニューアルしました!いつでも割り込みOK、自然なコミュニケーションで、箱から出してすぐに使えます。
-
Transformerのおかげで、Mambaはさらに強力になりました!計算コストはわずか1%で最先端のパフォーマンスを実現します。
-
あと2日!清華大学のポスドク研究員、Li Yuzhe氏がNature/Cellサブジャーナル論文のデザインアイデアについて説明します。
-
輝かしい20周年、新たな未来 - 第20回全国高性能コンピューティング会議が2024年に武漢で成功裏に開催されました。
-
オフライン イベント | AI for Science 学術フォーラムが北京で開催され、上海交通大学、浙江大学、清華大学、OpenBayes などの専門家が集まります。
-
Doubao Big Model チームは、トレーニングのスループットを最大 20 倍向上させる RLHF フレームワークをオープンソース化しました。