YOLOv8/v10の検出とセグメンテーション
機能説明
このオペレータは、高度なYOLOv8またはYOLOv10深層学習モデルを利用して、入力カラー画像に対して物体検出、インスタンスセグメンテーション、または回転物体検出タスクを実行し、.pt、.onnx、.epicnnなどの複数のモデル形式をサポートします。
使用シナリオ
-
物体検出:画像内の複数の物体を迅速に特定・識別し、そのバウンディングボックスとカテゴリを出力します。部品認識、欠陥特定、物品計数などに適しています。
-
インスタンスセグメンテーション:物体検出を基礎として、識別された各物体インスタンスに対して正確なピクセルレベルのセグメンテーションマスク(輪郭)をさらに生成します。把持位置特定、面積測定など、正確な形状情報が必要なシナリオに適しています。
-
回転物体検出:任意の向きを持つ物体を検出し、それらを密接に囲む回転バウンディングボックスとその角度を出力します。傾斜または任意に配置された物体の検出に適しています。
入력/출력
入力項目 |
画像:検出またはセグメンテーションを行うカラー画像(RGB形式である必要があります)。現在、単一画像の入力のみをサポートしています。 |
出力項目 |
テスト結果:検出/セグメンテーション結果を含むリスト。 |
パラメータ説明
|
重量ファイル
パラメータ説明 |
推論に使用するYOLOモデルの重みファイルを指定します。PyTorch(.pt)、ONNX(.onnx)、およびepicnn(.epicnn)形式をサポートします。有効なモデルファイルを選択する必要があります。 |
パラメータ調整ガイド |
タスクの要件とハードウェア能力に適したモデルファイルを選択してください。
|
GPUを有効にする
パラメータ説明 |
モデル推論計算にGPUを使用するかどうかを選択します。チェックした場合、コンピュータに利用可能なNVIDIAグラフィックカードと対応するCUDA環境があることを確認する必要があります。 |
パラメータ調整ガイド |
このオプションをチェックすると、特に大規模モデルや高解像度画像の場合、処理速度が大幅に向上します。
|
推定タイプ
パラメータ説明 |
.epicnn重みファイルを選択した場合にのみ有効です。.epicnnモデルがどのタスク(検出、セグメンテーション、回転検出)用で、どのYOLOバージョン(v8またはv10)に基づいているかをオペレータに明示的に通知するために使用されます。 |
パラメータ調整ガイド |
.epicnnファイルをロードする場合、モデルの実際のトレーニングタスクに基づいて正しい推論タイプを選択する必要があります。そうしないと、後処理エラーが発生する可能性があります。 たとえば、YOLOv8セグメンテーションモデルから変換された.epicnnファイルをロードする場合は、「yolov8セグメンテーション」を選択する必要があります。.ptおよび.onnxモデルの場合、オペレータはタスクタイプを自動的に識別し、このパラメータは無視されます。 |
信頼閾値
パラメータ説明 |
検出/セグメンテーション結果をフィルタリングするための信頼度スコアのしきい値。このしきい値よりも高いスコアのインスタンスのみが出力されます。 |
パラメータ調整ガイド |
これは最も一般的に調整されるパラメータです。この値を大きくすると、出力結果が少なくなり、モデルが非常に確信しているオブジェクトのみが保持され、誤検出を効果的に減らすことができます。この値を小さくすると、より多くの検出結果が得られ、確信度が低い、または品質の低いターゲットが含まれる可能性がありますが、見逃されたターゲットをいくつか取り戻すこともできます。実際のアプリケーションシナリオに基づいて、再現率と適合率の間でトレードオフを行う必要があります。通常はデフォルト値から開始し、効果に基づいて調整します。 |
パラメータ範囲 |
[0.005, 1],デフォルト値:0.8 |