論文の概要: Wise-IoU: Bounding Box Regression Loss with Dynamic Focusing Mechanism
- arxiv url: http://arxiv.org/abs/2301.10051v1
- Date: Tue, 24 Jan 2023 14:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:25:36.494785
- Title: Wise-IoU: Bounding Box Regression Loss with Dynamic Focusing Mechanism
- Title(参考訳): wise-iou:動的フォーカス機構によるバウンディングボックス回帰損失
- Authors: Zanjia Tong, Yuhang Chen, Zewei Xu, Rong Yu
- Abstract要約: Wese-IoU(WIoU)と呼ばれる動的非単調FMを用いたIoUベースの損失を提案する。
WIoUを最先端のリアルタイム検出器YOLOv7に適用すると、MS-COCOデータセット上のAP-75は53.03%から54.50%に改善される。
- 参考スコア(独自算出の注目度): 7.645166402471877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The loss function for bounding box regression (BBR) is essential to object
detection. Its good definition will bring significant performance improvement
to the model. Most existing works assume that the examples in the training data
are high-quality and focus on strengthening the fitting ability of BBR loss. If
we blindly strengthen BBR on low-quality examples, it will jeopardize
localization performance. Focal-EIoU v1 was proposed to solve this problem, but
due to its static focusing mechanism (FM), the potential of non-monotonic FM
was not fully exploited. Based on this idea, we propose an IoU-based loss with
a dynamic non-monotonic FM named Wise-IoU (WIoU). When WIoU is applied to the
state-of-the-art real-time detector YOLOv7, the AP-75 on the MS-COCO dataset is
improved from 53.03% to 54.50%.
- Abstract(参考訳): オブジェクト検出にはバウンディングボックス回帰(BBR)の損失関数が不可欠である。
その良い定義はモデルに大幅なパフォーマンス改善をもたらすだろう。
既存の研究の多くは、トレーニングデータの例が高品質であり、bbr損失の適合能力の強化に重点を置いていると仮定している。
低品質の例でbbrを盲目的に強化すれば、ローカライズのパフォーマンスを損なうことになります。
Focal-EIoU v1はこの問題を解決するために提案されたが、静的集束機構(FM)のため、非単調FMの可能性は完全には利用されなかった。
このアイデアに基づいて,Wise-IoU(WIoU)と呼ばれる動的非単調FMを用いたIoUに基づく損失を提案する。
WIoUを最先端のリアルタイム検出器YOLOv7に適用すると、MS-COCOデータセット上のAP-75は53.03%から54.50%に改善される。
関連論文リスト
- Rethinking IoU-based Optimization for Single-stage 3D Object Detection [103.83141677242871]
本稿では回転分離型IoU(RDIoU)法を提案する。
我々のRDIoUは、回転変数を独立項として分離することで、回帰パラメータの複雑な相互作用を単純化する。
論文 参考訳(メタデータ) (2022-07-19T15:35:23Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - SIoU Loss: More Powerful Learning for Bounding Box Regression [0.0]
損失関数SIoUが提案され、所望の回帰のベクトルの角度を考慮してペナルティ指標が再定義された。
従来のニューラルネットワークやデータセットに適用すると、SIoUはトレーニングの速度と推論の精度の両方を改善する。
論文 参考訳(メタデータ) (2022-05-25T12:46:21Z) - A Systematic IoU-Related Method: Beyond Simplified Regression for Better
Localization [9.036025934093965]
本稿では,2つのボックスが重なり合っていない場合によく定義され,重なり合っているときに標準IoUに還元される拡張IoUを提案する。
第3に、最小限のEIoU損失をより安定かつスムーズに接近させる安定最適化手法(SOT)を提案する。
論文 参考訳(メタデータ) (2021-12-03T09:00:55Z) - Alpha-IoU: A Family of Power Intersection over Union Losses for Bounding
Box Regression [59.72580239998315]
我々は、既存のIoUベースの損失を、パワーIoU項と追加のパワー正規化項を有する新しいパワーIoU損失ファミリーに一般化する。
複数のオブジェクト検出ベンチマークとモデルの実験では、$alpha$-IoUの損失が既存のIoUベースの損失を顕著なパフォーマンスマージンで上回ることを示した。
論文 参考訳(メタデータ) (2021-10-26T13:09:20Z) - Focal and Efficient IOU Loss for Accurate Bounding Box Regression [63.14659624634066]
オブジェクト検出では、境界ボックス回帰(BBR)はオブジェクトローカリゼーションのパフォーマンスを決定する重要なステップです。
i) $ell_n$-norm と IOU ベースのロス関数はどちらも BBR の目的を描くのに非効率的であり、これは遅い収束と不正確な回帰結果をもたらす。
論文 参考訳(メタデータ) (2021-01-20T14:33:58Z) - Enhancing Geometric Factors in Model Learning and Inference for Object
Detection and Instance Segmentation [91.12575065731883]
境界ボックス回帰および非最大抑圧(NMS)における幾何学的要素の強化を目的とした完全IoU損失とクラスタNMSを提案する。
CIoU損失を用いたディープラーニングモデルのトレーニングは、広く採用されている$ell_n$-norm損失とIoUベースの損失と比較して、一貫性のあるAPとARの改善をもたらす。
クラスタ-NMSは、純粋なGPU実装のため非常に効率的であり、APとARの両方を改善するために幾何学的要素を組み込むことができる。
論文 参考訳(メタデータ) (2020-05-07T16:00:27Z) - Dynamic R-CNN: Towards High Quality Object Detection via Dynamic
Training [70.2914594796002]
ラベル割り当て基準と回帰損失関数の形状を調整するための動的R-CNNを提案する。
我々はResNet-50-FPNベースラインを1.9%のAPと5.5%のAP$_90$で改善し、余分なオーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-04-13T15:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。