|
オリジナル:Pan Duyi (Datawhale) Datawhaleのヒント テスト担当者: Pan Duyi 、HKUST (広州)、Datawhale メンバー 今年6月、Zhipu AIは最新の大規模モデルであるGLM-4-Flashをリリースしました。API価格は100万トークンあたり0.1元で、多くの開発者の利用を促しています。 本日、BigModel Open Platform はGLM-4-Flash が完全に無料になることを正式に発表し、期間限定の無料微調整イベントも開始します。 中国製の大型プラモデルってこんなに安いの?発売されたらすぐに無料で試してみよう! 使用中に、無料の API に加えて、GLM-4-Flash では期間限定の無料調整イベントも提供していることもわかりました: https://open.bigmodel.cn/dev/... 関連するニーズを持つ学習者は、ぜひ体験してみてください。 もちろん、大手模型メーカーが価格競争のトレンドに追随するだけでは意味がありません。長期的に開発者やユーザーの支持を真に得るためには、少なくとも以下の3つの条件を満たす必要があります。 まず、モデル自体が十分に強力でなければなりません。そうでなければ、たとえ無料であっても、長期的に依存するユーザーを引き付け、維持することが難しくなります。 第二に、モデル API は使いやすく、微調整をサポートする必要があります。操作が複雑すぎると、ユーザーは敬遠してしまいます。 3 番目に、継続的な反復を通じてモデルが競争力を維持し、高性能 AI ツールに対する市場の継続的な需要を満たすためには、原動力となるコア技術と長期的なサポートが必要です。 無料で体験した後、Zhipu AI BigModel Open Platform GLM-4-Flash が無料である理由を分析してみましょう。 GLM-4 Flash は Llama 3 よりも優れています。 GLM-4-Flashという名前に馴染みがない方もいるかもしれませんが、そのベースとなる最新モデルはGLM-4ラージモデルです。 GLM-4大型モデルは、Zhipuが今年1月に発表した新世代の大型台座モデルであり、その性能は同数のパラメータを持つLlama 3を上回っています。 論理的推論能力は、モデルが数学的な問題を解いたり複雑なタスクを完了したりする能力を決定するため、モデルのパフォーマンスを測定する上で重要な基準となることがよくあります。GLM-4-Flashはこの点において非常に優れたパフォーマンスを示し、中国語と英語、セマンティクス、数学、推論、コード、知識など、様々なデータセットにおいてLlama 3と比較して優れたパフォーマンスを示しています。 GPT-4 に匹敵する Function Call 機能であれ、一連の外部ツールを理解して使用して質問に答えたりタスクを完了したりできる All Tools 機能であれ、GLM-4-Flash の背後にある GLM-4 は非常に高い水準にあると言えます。 さらに、実際のテストにより、GLM-4-Flash は 1 秒あたり最大 72 トークン (1 秒あたり約 115 文字) という非常に高速な速度でトークンを生成することが明らかになりました。 これが、このモデルが GLM-4-Flash と呼ばれる理由の 1 つかもしれません。 GLM-4-Flash は、優れた微調整サポートを備え、使いやすいユーザーフレンドリーな製品です。 GLM-4-Flash自体は非常に強力ですが、APIを直接呼び出すだけでは不十分な場合があります。これは、特定の専門分野や企業のプライベートビジネスを扱う大規模なモデルが必要な場合、トレーニングコーパスに関連データが不足しているため、大規模なモデルではこれらの特定のニーズを満たせない可能性があるためです。 この時点で、大規模モデルの微調整が必要となり、これには当社独自のコーパスを用いた二次学習が含まれます。微調整を通じて、特定の新しい知識やインタラクション手法を大規模モデルに注入し、専門分野やビジネスシナリオへの対応力を向上させることができます。 ファインチューニングには、LoRAファインチューニングとフルパラメータファインチューニングという2つの一般的な方法があります。どちらもZhipu AI BigModel Open Platformでサポートされており、プロセス全体は以下の3つのステップのみで完了します。 具体的な微調整プロセスについては、当組織のメンバーである Pan Duyi 氏を招き、GLM-4-Flash の微調整の実践テストを実施しました。 まず、LoRA の微調整です。 ロールプレイ分野では、大規模なモデルを用いて特定の役を演じ、そのインタラクションの習慣を模倣することで、ユーザーとの没入感のあるインタラクションを実現することを目指しています。しかし、大規模なモデルは、学習データにおいて特定のキャラクターのインタラクション手法を深く理解していないことが多く、キャラクターをシミュレーションする際にやや機械的な印象を与えてしまい、真に生き生きとしたロールプレイング体験を提供することが困難です。 Zhipu AI大規模モデルオープンプラットフォームのLoRA微調整技術を活用することで、大規模モデルを非常に低コストで微調整し、独自のAIキャラクターを迅速に作成できます。チャット歓歓プロジェクトを例に挙げると、この大規模モデルがユーザーとのインタラクションにおいて真歓のキャラクターを正確に表現し、よりリアルで継続的なインタラクティブ体験を提供できることを期待しています。 以下は、微調整後の相互作用の結果です。ご覧のとおり、モデルは非常に良好なパフォーマンスを示しており、回答はZhen Huanの説明と概ね一致しています。さらにパフォーマンスを向上させるには、トレーニングエポック数を増やすことができます。ただし、エポック数が多すぎると過学習につながり、実用化における有効性が低下する可能性があることに注意してください。 2 番目のステップは、完全なパラメータの微調整です。 医療質問応答の分野では、複雑な医療問題に対処するために、大規模モデルを通じて専門的で正確な医療アドバイスを提供することを目指しています。しかし、大規模モデルは、元の学習データに特定の医療分野に関する深い知識が欠けていることが多く、医療質問への回答精度や詳細度が不十分になる可能性があり、高品質な医療情報を求めるユーザーのニーズを満たすことが困難です。 LoRAのファインチューニングと比較して、フルパラメータファインチューニングは、モデルが新しい専門知識を学習する必要がある場合に適しています。フルパラメータファインチューニングにより、モデルをドメイン固有のデータで完全に学習させることができ、いくつかのパラメータを調整するだけでなく、新しい医学的知識を真に習得できるようになります。このアプローチにより、モデルは医学的な質問への回答においてより権威があり正確なパフォーマンスを発揮し、深い医学的専門知識を備えたAIアシスタントを迅速に構築し、ユーザーとのインタラクションにおいて高品質で信頼性の高い医学的回答を提供できるようになります。 微調整後、モデルのパフォーマンスが非常に良好であることがわかります。同様に、トレーニングエポック数を増やすことで、モデルのパフォーマンスをさらに向上させることができます。 スペースの制限により、Duyi の微調整に関する詳細な手順については、公式 WeChat アカウントで「 GLM 微調整」と返信してください。 まとめると、GLM-4-Flashは、シンプルで垂直かつ高速な応答が求められるタスクに最適です。Datawhaleチームによるテストに加え、Zhipu AIは参考までに公式のケーススタディもいくつか提供しています。 GLM-4-Flash は、コアテクノロジーを駆使して、包括的な AI のビジョンを体現しています。 GLM-4-Flash、あるいはその背後にあるGLM-4はなぜそれほど強力なのでしょうか? その背後では、Zhipu GLM 技術チームが、この小型モデルをさらに強力にするために、膨大な研究作業を行ってきました。 例えば、事前学習においては、データスクリーニングプロセスに大規模言語モデルを導入し、最終的に10TBの高品質多言語データを取得しました。これはChatGLM3-6Bモデルの3倍以上のデータ量です。同時に、FP8技術を用いて効率的な事前学習を行い、第3世代GLMモデルと比較して学習効率を3.5倍向上させました。これらの技術向上とその他の経験を組み合わせることで、GLM-4モデルは優れた推論性能、より長いコンテキスト処理能力、多言語サポート、マルチモーダル機能、そしてオールツール機能を備えています。 この GLM-4-Flash テストにおける推論コストの大幅な削減も、Zhipu AI テクノロジーの継続的な進歩によるものです。 Zhipu AIは、様々な手法を用いて大規模モデル運用の効率を最適化します。このオープンプラットフォームは、適応型重み量子化、複数の並列化手法、バッチ処理戦略、そして投機的サンプリングを採用することで、モデルのレイテンシを削減し、推論レベルの速度を向上させます。同時実行性とスループットの向上は、効率性を向上させるだけでなく、推論コストを大幅に削減します。 Zhipu がモデル API を無料にするという決定は、AI をすべての人に利用可能にするという同社のビジョンを反映しています。 壮大なモデルがどれほど印象的であっても、想像力が現実の生産性へと変換されて初めて、真の革命的意義を持つことになります。Zhipuは、価格設定こそが人類を汎用人工知能へと急速に前進させるために必要な道であり、AIをより身近なものにすることがAGIプロセスを加速させる重要な使命であると考えています。 例えば、企業向け消費者向け(To C)製品の場合、数億人のユーザーをカバーするには、毎日数千億トークンのスループットが必要となり、企業にとって莫大なコストとなります。これは、現在の大規模モデルでは、高価格帯のデバイスを優先的にカバーすることしかできず、比較的低価格帯のマスマーケット向けデバイスをサポートできないことを意味します。Zhipu AIの無料GLM-4-Flashを活用すれば、大規模モデルであらゆる端末とあらゆるデバイスをカバーできます。 実際、Zhipuの包括的なAIビジョンはオープンソースにも反映されています。Zhipuは常にオープンソースエコシステムの積極的な参加者であり、構築者でもあります。 例えば、高性能なGLM-4モデルはオープンソースとして公開されており、Zhipuのビデオ製品Qingyingを支えるCogVideoXモデルも数日前に無料でオープンソースとして公開されました。これは中国で同様のモデルがオープンソース化された初めてのケースです。 Zhipu AI: GLM-4-Flash - 無料詳細 GLM-4-Flashは、Zhipuが無料APIを提供する初の大規模モデルであり、最大128K長のコンテキストをサポートします。ユーザー呼び出し量に関しては、既存ユーザーの同時接続数は従来通りですが、新規ユーザーには2つの同時接続が提供されます。リクエストに応じて、同時接続数をさらに増やすことも可能です。 無料のオープンソース API であっても、無料のオープンソース モデルであっても、Zhipu AI は優先順位と多数の開発者ユーザーの双方向の融合を実現しました。 大規模アプリケーション開発を体験してみましょう! クリックして元の記事を読み、無料で入手を開始してください。 |
国産大規模モデルを公開!APIが正式に無料公開され、無料で直接分析が行えます。
関連するおすすめ記事
-
メルセデス・ベンツは、最低航続距離1,000キロメートルの初の全固体電池の路上テストを正式に発表した。
-
WeChat ミニプログラムから DeepSeek を呼び出す方法 Tencent Cloud 開発: 必要なコードは 3 行だけです。
-
李菲菲のスタートアップが16億人民元を調達! チームが初めて公式発表:3分の1は中国人で、黄氏(スティーブ・ジョブズの創業者)らが投資している。
-
Google はインターネット全体から 1,000 億の画像とテキストのペアを収集。VitT 幹部がこの取り組みを監督。データ拡張にはまだ可能性がある。
-
オープンソースのメンテナーへの手紙
-
浙江大学GIS研究所は、深センの1.7Kマンションの住宅価格を例に、注目メカニズムを使用して地理的コンテキストの特徴をマイニングし、空間非定常回帰の精度を向上させました。