618ZXW

オンラインチュートリアル | YOLO シリーズは 10 年間で 11 回更新され、最新モデルは複数のオブジェクト検出タスクで最先端のパフォーマンスを実現しています。

YOLO(You Only Look Once)は、コンピュータービジョン分野において最も影響力のあるリアルタイム物体検出アルゴリズムの一つです。その高い精度と効率性から業界から高い評価を受けており、自動運転、セキュリティ監視、医療画像診断などの分野で広く利用されています。

2015年にワシントン大学の大学院生ジョセフ・レドモン氏によって初めて公開されたこのモデルは、物体検出を単回帰問題として扱うアプローチの先駆者であり、エンドツーエンドの物体検出を実現し、開発者の間で急速に広く受け入れられました。その後、アレクセイ・ボチコフスキー氏、グレン・ジョッチャー氏(Ultralyticsチーム)、Meituanのビジュアルインテリジェンス部門などのチームが、いくつかの重要なバージョンをリリースしました。

現在までに、YOLO シリーズのモデルは GitHub で数十万個のスターを獲得しており、コンピューター ビジョンの分野における影響力を示しています。

YOLOモデルタスクの例図

YOLOシリーズのモデルは、1段階検出アーキテクチャを特徴としており、複雑な領域候補ボックス生成を必要とせず、単一の順方向伝播で物体検出を可能にするため、検出速度が大幅に向上します。従来の2段階検出器(Faster R-CNNなど)と比較して、 YOLOは推論速度が速く、高フレームレート画像のリアルタイム処理を可能にし、ハードウェア適応性が最適化されているため、組み込みデバイスやエッジコンピューティングのシナリオに幅広く適用できます。

現在、 HyperAI ウェブサイトの「チュートリアル」セクションでは、YOLO シリーズの複数のバージョンが公開されており、ワンクリックで展開して体験することができます。

この記事の最後には、最新バージョンの YOLOv11 を例にしたワンクリック デプロイメントのチュートリアルを紹介します。

1. YOLOv2

発売日:2017年

重要な更新: アンカー ボックスが導入され、Darknet-19 をバックボーン ネットワークとして使用することで、速度と精度が向上しました。

TVM を使用して DarkNet モデルで YOLO-V2 をコンパイルする:

https://go.hyper.ai/LiOio

2. YOLOv3

発売日:2018年

重要なアップデート:Darknet-53をバックボーンネットワークとして使用することで、リアルタイム速度を維持しながら精度が大幅に向上しました。マルチスケール予測(FPN構造)を提案し、異なるサイズのターゲットの検出と複雑な画像の処理において大幅な改善を実現しました。

TVM を使用して DarkNet モデルで YOLO-V3 をコンパイルする:

https://go.hyper.ai/LiOio

3. YOLOv5

発売日:2020年

重要なアップデート:アンカーボックスの自動調整メカニズムを導入し、リアルタイム検出機能を維持しながら精度を向上させました。より軽量なPyTorchを使用して実装されたため、トレーニングとデプロイが容易になりました。

ワンクリック展開: https://go.hyper.ai/jxqfm

4. YOLOv7

発売日:2022年

主なアップデート:拡張された効率的なレイヤー集約ネットワーク(Efficient Layer Aggregation Network)に基づいて、パラメータ利用率と計算効率が向上し、より少ない計算リソースでより優れたパフォーマンスを実現しました。COCOキーポイントデータセットのポーズ推定などの追加タスクが追加されました。

ワンクリック展開: https://go.hyper.ai/d1Ooq

5. YOLOv8

発売日:2023年

重要なアップデート: 新しいバックボーン ネットワークを採用し、新しいアンカーフリーの検出器ヘッドと損失関数を導入しました。これは、平均精度、サイズ、レイテンシの点で以前のバージョンよりも優れています。

ワンクリック展開: https://go.hyper.ai/Cxcnj

6. YOLOv10

発売日:2024年5月

主なアップデート:非最大抑制(NMS)要件が廃止され、推論レイテンシが短縮されました。大規模カーネル畳み込みといくつかの自己注意モジュールが組み込まれたことで、計算コストを大幅に増加させることなくパフォーマンスが向上しました。様々なコンポーネントが包括的に最適化され、効率と精度が向上しました。

YOLOv10 オブジェクト検出のワンクリック展開:

https://go.hyper.ai/TQH1f

YOLOv10 オブジェクト検出のワンクリック展開:

https://go.hyper.ai/RcLWj

7. YOLOv11

発売日:2024年9月

主なアップデート: 幅広い AI アプリケーションとドメインの機能を活用し、検出、セグメンテーション、ポーズ推定、追跡、分類など、複数のタスクにわたって最先端 (SOTA) のパフォーマンスを実現します。

ワンクリック展開: https://go.hyper.ai/Nztnq

YOLOv11 ワンクリックデプロイチュートリアル

HyperAIチュートリアルセクションに「YOLOv11のワンクリックデプロイ」が追加されました。このチュートリアルではすでに環境がセットアップされているため、コマンドを入力する必要はありません。「クローン」をクリックするだけで、YOLOv11の強力な機能をすぐに体験できます。

チュートリアルリンク: https://go.hyper.ai/Nztnq

デモ実行中

  1. hyper.ai にログインし、「チュートリアル」ページで「YOLOv11 のワンクリック デプロイメント」を選択し、「このチュートリアルをオンラインで実行」をクリックします。


  1. ページがリダイレクトされたら、右上隅の「複製」をクリックして、チュートリアルを独自のコンテナーに複製します。

  1. 右下にある「次へ: コンピューティング能力の選択」をクリックします。

  1. ページがリダイレクトされたら、「NVIDIA RTX 4090」と「PyTorch」のイメージを選択してください。ユーザーは、ニーズに応じて「従量課金制」または「日単位/週単位/月単位」の課金プランを選択できます。選択後、「次へ:確認」をクリックしてください。

  1. すべて正しいことを確認したら、「続行」をクリックし、リソースの割り当てをお待ちください。最初のクローン作成には約2分かかります。ステータスが「実行中」に変わったら、「APIアドレス」の横にあるジャンプ矢印をクリックしてデモページに移動してください。APIアドレスアクセス機能を使用する前に、実名認証を完了する必要がありますのでご注意ください。



効果のデモンストレーション

  1. YOLOv11の物体検出デモページを開き、動物が重なり合った写真をアップロードしました。パラメータを調整して「送信」をクリックすると、YOLOv11が写真内のすべての動物を正確に検出していることがわかります。右下に隠れている小鳥に気づきましたか?

以下のパラメータは以下を表します。

  • モデル: 選択した YOLO モデルのバージョンを参照します。
  • 画像サイズ: 入力画像のサイズ。モデルは検出時にこのサイズに合わせて画像のサイズを変更します。
  • 信頼しきい値: これは、信頼レベルがこのしきい値を超えた場合にのみ、モデルがターゲットを有効であると見なす信頼しきい値です。


  1. サンプルセグメンテーションのデモページにアクセスしたら、画像をアップロードし、パラメータを調整して「送信」をクリックすると、セグメンテーション操作が完了します。オクルージョンがあっても、YOLOv11は非常に優れたパフォーマンスを発揮し、人物を正確にセグメンテーションし、バスの輪郭を描き出します。

  1. オブジェクト分類のデモページにアクセスし、キツネの写真をアップロードしました。YOLOv11 は写真のキツネをアカギツネであると正確に識別しました。

  1. ポーズ認識のデモページにアクセスし、画像をアップロードし、画像に合わせてパラメータを調整して「送信」をクリックすると、ポーズと動作の解析が完了します。人物の誇張された体の動きを正確に解析していることがわかります。

  1. 方向付きオブジェクト検出デモ ページで画像をアップロードし、パラメータを調整してから、「送信」をクリックして、オブジェクトの特定の場所と分類を識別します。