論文の概要: Boundary IoU: Improving Object-Centric Image Segmentation Evaluation
- arxiv url: http://arxiv.org/abs/2103.16562v1
- Date: Tue, 30 Mar 2021 17:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:47:43.161918
- Title: Boundary IoU: Improving Object-Centric Image Segmentation Evaluation
- Title(参考訳): 境界IoU: オブジェクト中心画像分割評価の改善
- Authors: Bowen Cheng and Ross Girshick and Piotr Doll\'ar and Alexander C. Berg
and Alexander Kirillov
- Abstract要約: 境界品質に着目した新たなセグメンテーション評価手法であるBoundary IoUを紹介します。
境界IoUは、大きなオブジェクトの境界誤差に対して標準のMask IoU測度よりもはるかに感度が高く、小さなオブジェクトの誤差を過給しない。
- 参考スコア(独自算出の注目度): 125.20898025044804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Boundary IoU (Intersection-over-Union), a new segmentation
evaluation measure focused on boundary quality. We perform an extensive
analysis across different error types and object sizes and show that Boundary
IoU is significantly more sensitive than the standard Mask IoU measure to
boundary errors for large objects and does not over-penalize errors on smaller
objects. The new quality measure displays several desirable characteristics
like symmetry w.r.t. prediction/ground truth pairs and balanced responsiveness
across scales, which makes it more suitable for segmentation evaluation than
other boundary-focused measures like Trimap IoU and F-measure. Based on
Boundary IoU, we update the standard evaluation protocols for instance and
panoptic segmentation tasks by proposing the Boundary AP (Average Precision)
and Boundary PQ (Panoptic Quality) metrics, respectively. Our experiments show
that the new evaluation metrics track boundary quality improvements that are
generally overlooked by current Mask IoU-based evaluation metrics. We hope that
the adoption of the new boundary-sensitive evaluation metrics will lead to
rapid progress in segmentation methods that improve boundary quality.
- Abstract(参考訳): 境界品質に着目した新たなセグメンテーション評価尺度である境界IoU(Intersection-over-Union)を提案する。
異なるエラータイプやオブジェクトサイズにまたがって広範な解析を行い、境界IoUが大きなオブジェクトの境界誤差に対して標準のMask IoU測度よりもはるかに感度が高く、小さなオブジェクトのエラーを過給しないことを示す。
新しい品質指標は対称性w.r.t.のようないくつかの望ましい特性を示す。
これは、Trimap IoUやF-measureといった他の境界にフォーカスした指標よりもセグメンテーション評価に適している。
境界iouに基づいて,境界ap(平均精度)と境界pq(panoptic quality)の指標をそれぞれ提案することにより,例えば,panopticセグメンテーションタスクの標準評価プロトコルを更新する。
実験の結果,現在のMask IoUによる評価指標では概ね見過ごせない境界品質改善の指標が得られた。
新たな境界感性評価指標の導入により,境界品質を向上させるセグメンテーション手法の急速な進歩が期待できる。
関連論文リスト
- Size-invariance Matters: Rethinking Metrics and Losses for Imbalanced Multi-object Salient Object Detection [133.66006666465447]
現在のメトリクスはサイズに敏感で、大きなオブジェクトが集中し、小さなオブジェクトが無視される傾向があります。
サイズに基づくバイアスは、追加のセマンティック情報なしでは不適切であるため、評価はサイズ不変であるべきだと論じる。
我々は,この目標に適した最適化フレームワークを開発し,異なる大きさのオブジェクトの検出において,大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-05-16T03:01:06Z) - Revisiting Evaluation Metrics for Semantic Segmentation: Optimization
and Evaluation of Fine-grained Intersection over Union [113.20223082664681]
そこで本研究では,mIoUsの微細化と,それに対応する最悪の指標を提案する。
これらのきめ細かいメトリクスは、大きなオブジェクトに対するバイアスの低減、よりリッチな統計情報、モデルとデータセット監査に関する貴重な洞察を提供する。
ベンチマークでは,1つの測定値に基づかないことの必要性を強調し,微細なmIoUsが大きな物体への偏りを減少させることを確認した。
論文 参考訳(メタデータ) (2023-10-30T03:45:15Z) - SortedAP: Rethinking evaluation metrics for instance segmentation [8.079566596963632]
既存のメトリクスのほとんどは、セグメンテーション品質の限定的な解像度を持っていることを示す。
そこで我々は,オブジェクトレベルの不完全度と画素レベルの不完全度の両方で厳格に減少する sortedAP という新しい指標を提案する。
論文 参考訳(メタデータ) (2023-09-09T22:50:35Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - PNM: Pixel Null Model for General Image Segmentation [17.971090313814447]
ランダムセグメンタによって正しく分類される確率に応じて各ピクセルを重み付けする先行モデルを提案する。
3つのデータセットに対するセグメンテーションのセグメンテーション・タスクの実験により、PNMはセグメンテーションの品質を一貫して改善することを確認した。
本稿では,境界のシャープさを認識できる新しい測度であるtextitPNM IoUを提案する。
論文 参考訳(メタデータ) (2022-03-13T15:17:41Z) - Weighted Intersection over Union (wIoU) for Evaluating Image Segmentation [0.9790236766474198]
意味的セグメンテーションのための重み付け分割(wIoU)と呼ばれる新しい評価尺度を提案する。
まず、境界距離マップから生成される重みマップを構築し、境界重み係数に基づいて各画素の重み付け評価を可能にする。
我々は,33シーンのデータセット上でwIoUの有効性を検証し,その柔軟性を実証した。
論文 参考訳(メタデータ) (2021-07-21T02:59:59Z) - Multiscale IoU: A Metric for Evaluation of Salient Object Detection with
Fine Structures [5.098461305284216]
汎用オブジェクト検出アルゴリズムは、しばしば検出されたオブジェクトの微細構造を除去する。
一般的な評価指標であるIoU(Intersection over Union)とフラクタル次元(fractal dimension)という幾何学的概念の結婚について述べる。
IoU と f1-score が完全に見落としている境界構造に対して MIoU が本当に敏感であることを示す。
論文 参考訳(メタデータ) (2021-05-30T15:31:42Z) - Look Closer to Segment Better: Boundary Patch Refinement for Instance
Segmentation [51.59290734837372]
境界品質を改善するために,概念的にシンプルで効果的な後処理改善フレームワークを提案する。
提案されたBPRフレームワークは、CityscapesベンチマークのMask R-CNNベースラインを大幅に改善する。
BPRフレームワークをPolyTransform + SegFixベースラインに適用することで、Cityscapesのリーダーボードで1位に到達しました。
論文 参考訳(メタデータ) (2021-04-12T07:10:48Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。