🔷Yolo v8/v10 検出・分割
機能説明
このオペレーターは先進的なYOLOv8またはYOLOv10深層学習モデルを利用し、入力されたカラー画像に対して物体検出、実例分割、または回転物体検出タスクを実行します。.pt、.onnx、.epicnnなどの複数のモデル形式に対応しています。
使用シーン
-
物体検出: 画像内の複数の物体を高速定位・識別し、その包囲枠とカテゴリーを出力します。部品識別、欠陥定位、物品計数などに適用されます。
-
実例分割: 物体検出の基礎上で、さらに識別された各物体実例に対して精確なピクセルレベル分割マスク(輪郭)を生成します。精確な形状情報が必要なシーン、例えばつかみ定位、面積測定などに適用されます。
-
回転物体検出: 任意方向を持つ物体を検出し、その物体を密着して包囲する回転境界枠とその角度を出力します。傾斜または任意配置された物体検出に適用されます。
パラメータ説明
|
重みファイル
パラメータ説明 |
推論に使用するYOLOモデル重みファイルを指定します。PyTorch(.pt)、ONNX(.onnx)、epicnn(.epicnn)形式に対応しています。有効なモデルファイルを選択する必要があります。 |
調整説明 |
タスクニーズに応じて適切なモデルファイルを選択してください。
|
GPU有効化
パラメータ説明 |
GPUを使用してモデル推論計算を行うかどうかを選択します。チェックを入れる場合、コンピュータに利用可能なNVIDIAグラフィックスカードと対応するCUDA環境があることを確認してください。 |
調整説明 |
この項目をチェックすると処理速度が大幅に向上します。特に大型モデルや高解像度画像の場合に効果的です。
|
推論タイプ
パラメータ説明 |
.epicnn重みファイルを選択した場合のみ有効です。その.epicnnモデルがどのタスク(検出、分割、回転検出)に使用され、どのYOLOバージョン(v8またはv10)に基づいているかをオペレーターに明確に伝えるために使用されます。 |
調整説明 |
.epicnnファイルを読み込む場合、そのモデルの実際の訓練タスクに応じて正しい推論タイプを選択する必要があります。そうでなければ後処理エラーが発生する可能性があります。 例えば、読み込むのがYOLOv8分割モデルから変換された.epicnnファイルの場合、「yolov8分割」を選択する必要があります。.ptと.onnxモデルの場合、オペレーターが自動的にタスクタイプを識別するため、このパラメータは無視されます。 |
信頼度閾値
パラメータ説明 |
検出/分割結果をフィルタするための信頼度スコア閾値。このスコアより高い実例のみが出力されます。 |
調整説明 |
これは最もよく使用される調整パラメータです。この値を大きくすると出力結果が少なくなり、モデルが非常に確信しているターゲットのみを保持し、誤報を効果的に減らすことができます。この値を小さくするとより多くの検出結果が得られ、あまり確信していない、または品質の低いターゲットが含まれる可能性がありますが、見逃されたターゲットを取り戻すことも可能です。実際の応用シーンに応じて適合率と精度の間でバランスを取る必要があります。通常はデフォルト値から始めて、効果に応じて調整してください。 |
パラメータ範囲 |
[0.005, 1]、デフォルト値:0.8 |
|
|
|
信頼度閾値=0.05 |
信頼度閾値=0.8 |
信頼度閾値=0.95 |




