618ZXW

幸運な人の未使用の 4090 により、GPU のレンタル価格が下がりました (doge)。

GPUレンタル市場がどんどん異常事態になってきています。価格が下落しているのは、一部の人が使っていない4090をリサイクルしているからでしょうか?(doge)

最近、新しいタイプの GPU レンタルが登場し始めています。

これにより、未使用のコンピューティング カードを持つユーザーが、そのリソースを必要なユーザーに貸し出すことが可能になります。

例えば、Black Mythをプレイするためにレベル4090のDestiny Cardを購入した場合、それをAlchemistsにレンタルすることができます。AFKでお金を稼ぐことができ、Alchemistsはより手頃な価格でコンピューティングパワーをレンタルできます(4090は1時間あたりわずか1元です)。

コンピューティングパワーの不足が広まってからわずか 1 年で、コンピューティングパワーのリースの市場はすでに新たな様相を見せています。

さらに、既存のレンタルプラットフォームも積極的に価格を引き下げています。海外では、H100の価格は1時間あたり2ドルまで急落しています。

国内でも状況は同様で、A100(80GB)のレンタル価格は1時間あたり6.68元、40GBは1時間あたり3.28元、A800は1時間あたり5.98元となっている。

論理的に考えると、今はAIコンピューティングパワーの需要がピークを迎える時期であるはずです。大手クラウドプロバイダーが市場シェア獲得のために価格競争を繰り広げているのは理解できますが、コンピューティングパワーリースプラットフォームの価格は上昇せず、むしろ下落し始めているという事実は…

舞台裏ではいったい何が起こったのでしょうか?

高性能コンピューティングパワーを格安で手に入れよう

つまり、 ChatGPT の初年度と比較すると、AI コンピューティング能力の不足は大幅に緩和されましたが、課題はまだ残っています。

上記の変化は、コンピューティング能力の供給側と需要側の複合的な影響によって引き起こされます。

まず、コンピューティングパワーの供給面では、大規模モデルのトレンドがAI の基盤となるハードウェアとインフラストラクチャの発展をさらに推進しています。

国際的には、Nvidia は過去 2 年間で AI コンピューティング製品ラインを拡大しただけでなく、急増する市場の需要を満たすために生産能力も大幅に増強しました。

HopperアーキテクチャとBlackwellアーキテクチャはどちらもTransformerエンジンを搭載しており、それぞれ2つの製品が市場に投入されています。異なるアーキテクチャ間の世代交代は非常に顕著です。B200は2080億トランジスタに達し、これはH100の2.6倍、A100の3.8倍に相当します。後者2つは、大規模モデルの波が到来する前にリリースされました。

GB200スーパーチップは、2基のB200 GPUとGrace CPUを組み合わせたものです。標準の1750億パラメータGPT-3ベンチマークテストにおいて、GB200のパフォーマンスはH100の7倍、トレーニング計算能力はH100の4倍です。

B200の最初のエンジニアリングプロトタイプはすでにOpenAIに納入され、運用されています。TF International Securitiesのアナリスト、ミンチー・クオ氏によると、NVIDIAのBlackwell GB200の第4四半期の出荷台数は15万台から20万台で、来年第1四半期には200%から250%の大幅な増加となる50万台から55万台に達する見込みです。

これは業界全体における製品のイテレーションとアップグレードのペースを加速させました。競争力を維持するため、AMD、Intelをはじめとする企業は過去2年間で、より高度なAIコンピューティング製品を発売してきました。

より顕著な変化はコンピューティングインフラに反映されています。中国情報通信研究院の試算によると、2023年末までに世界のコンピューティングインフラの総規模は910EFLOPSに達し、前年比40%の増加となります

コンピューティング能力インフラの規模では、米国と中国がそれぞれ世界全体のコンピューティング能力の 32% と 26% を占め、第 1 位と第 2 位にランクされています。

一方、コンピューティング能力に対する需要も過去 1 年間で変化しました

オープンソースモデルがGPT-4に匹敵する性能レベル(405B Llama 3やDeepSeek-v2など)を達成し、小規模から中規模のモデル(7B~70B規模)のアプリケーションが成熟するにつれて、中小企業/開発者が徐々に市場に参入し始めており、推論におけるスケーリング則という近年のトレンドが新たな方向性として浮上しています。Jensen Huang氏は、推論チェーンの出現により、推論の規模は数千万倍、あるいは数十億倍に拡大すると予測しています。

さまざまな理由により、微調整推論に対する市場需要が大幅に増加する一方で、トレーニング需要の成長傾向は鈍化し始めています。

学習フェーズと比較して、推論フェーズのハードウェア要件は低くなります。実際のシナリオでは、学習には最先端の機器が使用され、推論には旧世代の製品が使用されることがよくあります。

したがって、大手メーカーは依然として H100 や B200 などのハイエンド GPU を好んでいますが、中小企業や開発者はもはやそれらに群がっておらず、よりコスト効率の高いオプションに重点を置いていることがわかります。

しかし、コンピューティング能力の需要と供給の不均衡の問題は、依然として厄介な問題です。

マクロ的な視点から見ると、「人工知能コンピューティングパワーの高品質な発展に関する評価報告書」では、我が国のコンピューティングパワー市場は依然として供給不足、コンピューティングパワーのインテリジェンスレベルの低さ、エネルギーの課題、サプライチェーンの完全性の不足などの問題に直面していると述べられています。

ミクロレベルでは、学術界を例にとると、「コンピューティング能力不足」は依然として一般的な現象です。

今年5月のインタビューで、フェイフェイ・リー氏はスタンフォード大学NLPラボにはA100チップが64個しか存在しないと明かしました。業界全体と比較するとこの数はごくわずかですが、学術界では非常に豊富です。

より一般的な現象として、多くの大学の研究室にはコンシューマーグレードのグラフィックカードしかなく、学生はそれを使うために列に並ばなければならないという状況があります。実験資金の制限は、コンピューティングパワーのリースをさらに制限するでしょう。

こうした矛盾に直面して、コンピューティングパワー市場はより積極的なアプローチを取り始め、自発的に新たな対策を提案し始めました。

最も明らかな兆候は、従来のコンピューティング パワー プラットフォームによる積極的な価格引き下げと、新しいコンピューティング パワー レンタル モデルの出現です。

コンピューターの実行中に、無料のものを入手したり、お金を稼いだりすることもできます。

今年のコンピューティングパワー市場で最もホットな話題は「価格戦争」であり、これは大規模モデルサービスを販売するクラウドベンダーに限らず、コンピューティングパワーのリースを提供する大手プラットフォームも対象としています。

プラットフォームの種類によって価格を下げる方法は異なります。

現在、コンピューティング パワー レンタル プラットフォームには主に 2 つの種類があります。

  • コンピューティングパワークラウドプラットフォーム
  • C2Cコンピューティングパワーレンタルプラットフォーム

前者は、 JD.comと同様に、すべてのGPUサーバーを自社所有のリソースとして運用しています。通常、コンピューティングパワーに加えて、様々なサポートサービスも提供することで、ユーザーがコンピューティングパワーをより容易に、よりアクセスしやすいものにしています。このモデルでは、価格決定権は事業者にあり、多くのプラットフォームが今年積極的に価格を引き下げています

後者はタオバオに似ており、コンピュータ所有者とユーザーがサービス取引を行うプラットフォームを提供しています。このモデルは比較的新しいもので、遊休状態のコンピューティングリソースを持つコンピュータ所有者がGPUをレンタルし、「マシンが稼働している間に収益を得る」ことができます。本質的に、より費用対効果の高いレンタル価格を提供しています

ただし、コンピューティング能力のリースにおいては、低価格は考慮すべき要素の 1 つに過ぎず、ユーザーはプラットフォームが提供するサービス機能にも注意を払う必要があることに注意してください。

前者の場合、ユーザーは、プラットフォームによって提供されるコンピューティング能力が費用対効果が高く、ユーザーフレンドリーであるかどうかをより懸念します。後者の場合、マシンの所有者とユーザーは、プラットフォームが信頼できるかどうかをより懸念します。

パターンをより詳しく分析するために、典型的な業界の事例を見てみましょう。

従来のクラウド コンピューティング プラットフォームの中で、 AutoDL は間違いなく価格競争で最も積極的なプラットフォームの 1 つです

熟練した錬金術師なら、このプラットフォームをよくご存知でしょう。当時、3090のレンタル料金を1時間あたり4.5元から1時間あたり1.32元に値下げし、ユーザーから高い評価を得たプラットフォームです。

2021 年に開始され、柔軟で使いやすく、コスト効率に優れた GPU コンピューティング パワー サービスの提供に重点を置いています。

GPU の総数は中国の同様のプラットフォームの中でトップクラスであり、A100、A800、V100、4090、3090 など、幅広い GPU オプションを提供しています。

主な対象ユーザーは大学の研究者や企業ユーザーであるため、コスト効率が高く初心者にも優しい製品です。

このプラットフォームは、TensorFlowやPyTorchといった様々なディープラーニングフレームワークをサポートし、対応するCUDA環境を提供しています。ユーザーはニーズに応じて適切なイメージを選択できます。

具体的な機能に関しては、研究ニーズと企業ニーズの両方を考慮しています。これには主に以下が含まれます。

  • エラスティック スケジューリング: コンテナ インスタンスと API エラスティック スケジューリング モードを提供し、キロカロリー レベルのエラスティック スケジューリングをサポートします。
  • チーム管理: ラボやチームなどのシナリオで複数のサブアカウントの管理をサポートします。
  • プライベート クラウド: ローカル マシンへの無料アクセスをサポートし、AutoDL クラウドの効率的な管理とユーザー エクスペリエンスをローカル マシンに移植します。
  • CodeWithGPU コミュニティ: 画像とモデルの共有をサポートします。画像を共有すると報酬を獲得できます。

支払い面では、「クーポンハンター」のニーズをよりよく満たし、主に秒単位課金とパッケージ課金の 2 つのモードを提供します。

従量課金モデルでは、インスタンスの電源投入時に課金が開始され、電源切断時に課金が終了します。課金期間は秒単位です。最低課金額は0.01元です。すべてのデータはシャットダウン後も保持され(15日間)、画像の保存とファイルの保存もサポートされています。

年間/月間サブスクリプションは、GPU予約モードであり、日単位、週単位、月単位のレンタルに対応しています。従量課金制よりも安価で、長期利用においてより費用対効果の高いプランです。

さらに、プラットフォームに登録するだけで1ヶ月間のアルケミーメンバーシップが付与され、認証済みの生徒はアルケミーメンバーシップに直接アップグレードできます。アップグレードは認証期間中有効です。メンバーは割引料金でご利用いただけます。

一方、大規模モデルのトレンドの高まりとともに、 C2C(ユーザーツーユーザー)モデルが非常に人気になりました。

シリコンバレーの好例がサンフランシスコ・コンピュートだ。わずか6ヶ月で無名からダークホースへと躍進し、サム・アルトマンの弟が主導する1,200万ドルのシードラウンドで資金調達を行い、企業価値は7,000万ドルに達した。

中国でも同様の傾向が現れています。例えば、わずか3か月前に設立されたJupiyouは、すでにAutoDLとの戦略的提携を締結しています。

Jupiyou は、その自己定義によれば、C2C の二国間 AI コンピューティング パワー取引を促進するマッチメイキング プラットフォームです。

その主な目的は、シェアリングエコノミーモデルを通じてユーザーがAIコンピューティングパワーを使用するコストを削減し、同時に個人のアイドル状態のコンピューティングパワーを効率的に使用できるようにすることで、コンピューティングパワーの包摂性とグリーンで低炭素な開発を促進することです。

このプラットフォームは、GPU、NPU、CPU、ASIC、ARM、RISC-V などのコンピューティング パワー タイプをサポートしており、AI トレーニング、AI 推論、画像生成、レンダリング タスクのニーズを満たすことができます。

AutoDL と比較すると、OrangeU はより低価格のコンピューティング パワー レンタル サービスを提供しており、マシン構成にこだわらない人に適しています。

同時に、よりカスタマイズ性が高く、個人向けの柔軟な外部イメージとインスタンス ポートをサポートします。

このプラットフォームでは、マシンのオーナーになって他の人に貸し出して収入を得ることもできます。セルフサービス式のマシンセットアップに対応しており、マシンの数や台数に制限はありません。

AutoDL との戦略的パートナーシップと、それを支えるチームがコンピューティング パワー業界のベテランであることから、混沌としたコンピューティング パワー市場において、より信頼できる選択肢となります。

レンタル利用者の不足を心配する必要はないかもしれません。AutoDLはコスト効率の良さから、わずか3年で膨大なユーザーベースを築き上げました。以前はカードを手に入れるには、苦労する必要がありました。

だから、こんな低価格の意味は何なのかと疑問に思う人がいるのも不思議ではありません。

実は、AutoDLの技術チーム自体が学術界出身で、2017年からGPU関連のサービスを提供してきました。こうした経歴から、AutoDLチームはAI業界の問題点を自然に理解し、豊富な経験を積み重ねてきました。

これにより、AutoDL が、豊富かつコスト効率の高い大量のコンピューティング リソースの提供にこだわる理由が簡単に理解できます。

大規模 AI モデルの応用のトレンドが続くにつれ、AI コンピューティング能力に対する需要は増加し続けるでしょう。

多くの研究機関、大学、中小企業にとって、コンピューティングパワーは研究開発と実用化における最初のハードルとなります。

今日では、コンピューティング パワーのリースの市場が成熟し、モデルが多様化しているため、コンピューティング パワーの使用は、カフェテリアで食べ物を手に入れるのと同じくらい簡単になりました。つまり、豊富で、満腹感があり、実用的になりました。

業界にとって、これによりコンピューティング能力の需要と供給の不均衡が大幅に緩和され、同時にリソースをより効率的かつ環境に優しい方法で流すことができます。

もちろん、最も重要なことは、すべての錬金術師が無料のものを手に入れることができるということです。なぜなら、Black Myth をプレイして 4090 Destiny を手に入れた人も、投資 (doge) を取り戻す方法を見つけることができるからです。

最後に、この記事で紹介した2つのプラットフォームの公式ウェブサイトをご紹介します。興味のある学生は、ぜひ詳細をご覧ください。

AutoDL公式サイト: https://www.autodl.com

Orange Peel Pro 公式サイト: https://gpu.pro