618ZXW

オンラインチュートリアル | YOLOv11 実践!スピードと精度を兼ね備えたターゲット検出ツール

YOLOモデルは、物体検出において常に定番の選択肢となっています。新世代の物体検出モデルであるYOLOv11は、シリーズの高効率性とリアルタイム性能を継承するだけでなく、検出精度と複雑なシーンへの適応性を大幅に向上させ、より高い精度、より高速な速度、そしてよりインテリジェントな推論性能をもたらします。

YOLOv11は、基本的な物体検出と分類からきめ細かなインスタンスセグメンテーションまで、複数の視覚タスクを同時に実行できます。さらに、ポーズ推定による人間や物体の動きの分析も可能です。YOLOv11は物体の位置特定と検出にも優れており、画像内のターゲットを正確に特定・認識することで、より複雑なシナリオのニーズにも対応します。例えば、自動運転では、前方の車両や歩行者を正確に識別できるだけでなく、車線や交通標識も正確に特定できるため、運転の安全性を確保できます。

HyperAIチュートリアルセクションに「YOLOv11のワンクリックデプロイ」が追加されました。このチュートリアルではすでに環境がセットアップされているため、コマンドを入力する必要はありません。「クローン」をクリックするだけで、YOLOv11の強力な機能をすぐに体験できます。

チュートリアルアドレス:
https://go.hyper.ai/ycTq1

デモ実行中

  1. hyper.ai にログインし、「チュートリアル」ページで「YOLOv11 のワンクリック デプロイメント」を選択し、「このチュートリアルをオンラインで実行」をクリックします。

  1. ページがリダイレクトされたら、右上隅の「複製」をクリックして、チュートリアルを独自のコンテナーに複製します。

  1. 右下にある「次へ: コンピューティング能力の選択」をクリックします。

  1. ページがリダイレクトされたら、「NVIDIA RTX 4090」と「PyTorch」のイメージを選択してください。ユーザーは、ニーズに合わせて「従量課金制」または「日次/週次/月次」プランから選択できます。選択後、「次へ:承認」をクリックしてください。下記の招待リンクから新規登録されたユーザーは、RTX 4090を4時間無料でご利用いただけるほか、CPUを5時間無料でご利用いただけます。

HyperAI 限定招待リンク (コピーしてブラウザに直接貼り付けてください):

https://openbayes.com/console/signup?r=Ada0322_QZy7

  1. すべて正しいことを確認したら、「続行」をクリックし、リソースの割り当てをお待ちください。最初のクローン作成には約2分かかります。ステータスが「実行中」に変わったら、「APIアドレス」の横にあるジャンプ矢印をクリックしてデモページに移動してください。APIアドレスアクセス機能を使用する前に、実名認証を完了する必要がありますのでご注意ください。

効果のデモンストレーション

  1. YOLOv11の物体検出デモページを開き、動物が重なり合った写真をアップロードしました。パラメータを調整して「送信」をクリックすると、YOLOv11が写真内のすべての動物を正確に検出していることがわかります。右下に隠れている小鳥に気づきましたか?

以下のパラメータは以下を表します。

モデル:選択した YOLO モデルのバージョンを参照します。

画像サイズ:入力画像のサイズ。モデルは検出時にこのサイズに合わせて画像のサイズを変更します。

信頼しきい値:これは、信頼レベルがこのしきい値を超えた場合にのみ、モデルがターゲットを有効であると見なす信頼しきい値です。

  1. サンプルセグメンテーションのデモページにアクセスしたら、画像をアップロードし、パラメータを調整して「送信」をクリックすると、セグメンテーション操作が完了します。オクルージョンがあっても、YOLOv11は非常に優れたパフォーマンスを発揮し、人物を正確にセグメンテーションし、バスの輪郭を描き出します。

  1. オブジェクト分類のデモページにアクセスし、キツネの写真をアップロードしました。YOLOv11 は写真のキツネをアカギツネであると正確に識別しました。

  1. ポーズ認識のデモページにアクセスし、画像をアップロードし、画像に合わせてパラメータを調整して「送信」をクリックすると、ポーズと動作の解析が完了します。人物の誇張された体の動きを正確に解析していることがわかります。

  1. 方向付きオブジェクト検出デモ ページで画像をアップロードし、パラメータを調整してから、「送信」をクリックして、オブジェクトの特定の場所と分類を識別します。