論文の概要: VarifocalNet: An IoU-aware Dense Object Detector
- arxiv url: http://arxiv.org/abs/2008.13367v2
- Date: Thu, 4 Mar 2021 15:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 07:09:35.740636
- Title: VarifocalNet: An IoU-aware Dense Object Detector
- Title(参考訳): varifocalnet:iouを検知する高密度物体検出器
- Authors: Haoyang Zhang, Ying Wang, Feras Dayoub and Niko S\"underhauf
- Abstract要約: 我々は、物体の存在感と位置決め精度の合同表現として、IACS(Iou-Aware Classification Score)を学習する。
IACSに基づいて、高密度物体検出器により、より正確な候補検出のランク付けが可能であることを示す。
FCOS+ATSSアーキテクチャに基づくIoU対応の高密度物体検出器を構築し,VarifocalNetあるいはVFNetと呼ぶ。
- 参考スコア(独自算出の注目度): 11.580759212782812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately ranking the vast number of candidate detections is crucial for
dense object detectors to achieve high performance. Prior work uses the
classification score or a combination of classification and predicted
localization scores to rank candidates. However, neither option results in a
reliable ranking, thus degrading detection performance. In this paper, we
propose to learn an Iou-aware Classification Score (IACS) as a joint
representation of object presence confidence and localization accuracy. We show
that dense object detectors can achieve a more accurate ranking of candidate
detections based on the IACS. We design a new loss function, named Varifocal
Loss, to train a dense object detector to predict the IACS, and propose a new
star-shaped bounding box feature representation for IACS prediction and
bounding box refinement. Combining these two new components and a bounding box
refinement branch, we build an IoU-aware dense object detector based on the
FCOS+ATSS architecture, that we call VarifocalNet or VFNet for short. Extensive
experiments on MS COCO show that our VFNet consistently surpasses the strong
baseline by $\sim$2.0 AP with different backbones. Our best model VFNet-X-1200
with Res2Net-101-DCN achieves a single-model single-scale AP of 55.1 on COCO
test-dev, which is state-of-the-art among various object detectors.Code is
available at https://github.com/hyz-xmaster/VarifocalNet .
- Abstract(参考訳): 密度の高い物体検出器が高性能を達成するためには、膨大な数の候補検出を正確にランク付けすることが不可欠である。
事前の作業では、分類スコアまたは分類と予測定位スコアの組み合わせを使用して候補をランク付けする。
しかし、どちらのオプションも信頼性の高いランキングとなり、検出性能が低下する。
本稿では,物体の存在感と位置推定精度の合同表現として,IACS(Iou-Aware Classification Score)を学習することを提案する。
高密度物体検出器は、iacsに基づいて、より正確な候補検出ランキングを実現できることを示す。
我々は、IACSを予測するために高密度物体検出器を訓練するために、Varifocal Lossという新しい損失関数を設計し、IACS予測とバウンディングボックス改善のための新しい星型バウンディングボックス特徴表現を提案する。
これら2つの新しいコンポーネントとバウンディングボックスリファインメントブランチを組み合わせることで、FCOS+ATSSアーキテクチャに基づいたIoU対応の高密度オブジェクト検出器を構築し、VarifocalNetまたはVFNetを略して呼び出す。
MS COCOの大規模な実験により、VFNetは、異なるバックボーンを持つ$\sim$2.0 APの強いベースラインを一貫して超えています。
我々のベストモデルであるVFNet-X-1200とRes2Net-101-DCNは、COCO test-dev上で55.1のシングルスケールAPを達成する。
関連論文リスト
- Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Cascade-DETR: Delving into High-Quality Universal Object Detection [99.62131881419143]
高品質な普遍物体検出のためのカスケードDETRを提案する。
本稿では,オブジェクト中心情報を検出デコーダに明示的に統合するカスケードアテンション層を提案する。
最後に、多様なドメインから10のデータセットを含む汎用オブジェクト検出ベンチマークUDB10を紹介する。
論文 参考訳(メタデータ) (2023-07-20T17:11:20Z) - Anchor Retouching via Model Interaction for Robust Object Detection in
Aerial Images [15.404024559652534]
本稿では,新しいトレーニングサンプルジェネレータを構築するために,動的拡張アンカー(DEA)ネットワークを提案する。
提案手法は,適度な推論速度とトレーニングの計算オーバーヘッドを伴って,最先端の性能を精度良く達成する。
論文 参考訳(メタデータ) (2021-12-13T14:37:20Z) - Disentangle Your Dense Object Detector [82.22771433419727]
深層学習に基づく高密度物体検出器はここ数年で大きな成功を収め、ビデオ理解などのマルチメディアアプリケーションにも応用されてきた。
しかし、現在の高密度検出器の訓練パイプラインは、保持できない多くの接続に妥協されている。
そこで本研究では, 簡易かつ効果的な遠心分離機構を設計し, 現在の最先端検出器に統合するDED(Disentangled Dense Object Detector)を提案する。
論文 参考訳(メタデータ) (2021-07-07T00:52:16Z) - Modulating Localization and Classification for Harmonized Object
Detection [40.82723262074911]
2つのタスクを変調する相互学習フレームワークを提案する。
特に,2つのタスクは,新たな相互ラベル付け戦略によって互いに学習することを余儀なくされる。
COCOデータセットのベースライン検出器に対する大幅なパフォーマンス向上を実現しました。
論文 参考訳(メタデータ) (2021-03-16T10:36:02Z) - Corner Proposal Network for Anchor-free, Two-stage Object Detection [174.59360147041673]
オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
論文 参考訳(メタデータ) (2020-07-27T19:04:57Z) - FCOS: A simple and strong anchor-free object detector [111.87691210818194]
物体検出を画素ごとの予測方式で解くために, 完全畳み込み型一段物検出器 (FCOS) を提案する。
RetinaNet、SSD、YOLOv3、Faster R-CNNといった最先端のオブジェクト検出器のほとんどは、事前に定義されたアンカーボックスに依存している。
対照的に、提案した検出器FCOSはアンカーボックスフリーであり、提案はフリーである。
論文 参考訳(メタデータ) (2020-06-14T01:03:39Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z) - Seeing without Looking: Contextual Rescoring of Object Detections for AP
Maximization [4.346179456029563]
任意の検出器の出力を後処理することで、コンテキストをオブジェクト検出に組み込むことを提案する。
再現は、検出の集合全体からコンテキスト情報を条件付けすることで行われる。
検出信頼度を簡易に再割り当てすることでAPを改善できることを示す。
論文 参考訳(メタデータ) (2019-12-27T18:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。