論文の概要: DAFNe: A One-Stage Anchor-Free Deep Model for Oriented Object Detection
- arxiv url: http://arxiv.org/abs/2109.06148v1
- Date: Mon, 13 Sep 2021 17:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 16:12:23.101835
- Title: DAFNe: A One-Stage Anchor-Free Deep Model for Oriented Object Detection
- Title(参考訳): DAFNe:オブジェクト指向物体検出のための1段階アンカーフリーディープモデル
- Authors: Steven Lang, Fabrizio Ventola, Kristian Kersting
- Abstract要約: DAFNe: オブジェクト指向物体検出のためのワンステージアンカーフリーディープネットワークを提案する。
アンカーフリーモデルとして、DAFNeはバウンディングボックスアンカーの使用を控えることで予測複雑性を低減する。
低品質な予測に対する任意指向の有界箱に対する中心性関数の指向性を考慮した一般化を提案する。
- 参考スコア(独自算出の注目度): 16.21161769128316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is a fundamental task in computer vision. While approaches
for axis-aligned bounding box detection have made substantial progress in
recent years, they perform poorly on oriented objects which are common in
several real-world scenarios such as aerial view imagery and security camera
footage. In these cases, a large part of a predicted bounding box will,
undesirably, cover non-object related areas. Therefore, oriented object
detection has emerged with the aim of generalizing object detection to
arbitrary orientations. This enables a tighter fit to oriented objects, leading
to a better separation of bounding boxes especially in case of dense object
distributions. The vast majority of the work in this area has focused on
complex two-stage anchor-based approaches. Anchors act as priors on the
bounding box shape and require attentive hyper-parameter fine-tuning on a
per-dataset basis, increased model size, and come with computational overhead.
In this work, we present DAFNe: A Dense one-stage Anchor-Free deep Network for
oriented object detection. As a one-stage model, DAFNe performs predictions on
a dense grid over the input image, being architecturally simpler and faster, as
well as easier to optimize than its two-stage counterparts. Furthermore, as an
anchor-free model, DAFNe reduces the prediction complexity by refraining from
employing bounding box anchors. Moreover, we introduce an orientation-aware
generalization of the center-ness function for arbitrarily oriented bounding
boxes to down-weight low-quality predictions and a center-to-corner bounding
box prediction strategy that improves object localization performance. DAFNe
improves the prediction accuracy over the previous best one-stage anchor-free
model results on DOTA 1.0 by 4.65% mAP, setting the new state-of-the-art
results by achieving 76.95% mAP.
- Abstract(参考訳): 物体検出はコンピュータビジョンの基本課題である。
近年、軸方向境界ボックス検出のアプローチは大きな進歩を遂げているが、空中視画像や防犯カメラの映像など、現実のいくつかのシナリオに共通するオブジェクト指向のオブジェクトでは不十分である。
これらの場合、予測された有界箱の大部分は、望ましくは非対象関連領域をカバーする。
そのため、物体検出を任意の方向へ一般化する目的でオブジェクト指向物体検出が登場した。
これにより、オブジェクト指向オブジェクトにより厳密な適合が可能となり、特に高密度オブジェクト分布の場合、バウンディングボックスの分離性が向上する。
この分野の作業の大部分は、複雑な2段階アンカーベースのアプローチに重点を置いている。
アンカーはバウンディングボックスの形状に先行して動作し、データセットごとに注意深いハイパーパラメータの微調整、モデルサイズの増加、計算オーバーヘッドを伴う。
本研究ではDAFNe: A Dense one-stage Anchor-Free Deep Network for oriented object detectionを提案する。
1段階モデルとして、DAFNeは入力画像上の高密度グリッド上で予測を実行し、アーキテクチャ的にシンプルで高速であり、2段階モデルよりも最適化が容易である。
さらに、アンカーフリーモデルとして、DAFNeはバウンディングボックスアンカーの使用を控えることで予測複雑性を低減する。
さらに,任意の方向のバウンディングボックスに対するセンターネス関数の向き付けを一般化し,低品質のダウンウェイト予測と,オブジェクトのローカライズ性能を向上させるセンターツー角バウンディングボックス予測戦略を提案する。
DAFNeは従来のDOTA 1.0の1段階のアンカーフリーモデルの予測精度を4.65%改善し、76.95% mAPを達成して新しい最先端の結果を設定する。
関連論文リスト
- Improving the Detection of Small Oriented Objects in Aerial Images [0.0]
本研究では,オブジェクト指向物体検出モデルの分類・回帰タスクを強化することにより,空中画像中の小型物体を高精度に検出する手法を提案する。
ガイド・アテンション・ロス(GALoss)とボックス・ポイント・ロス(BPLoss)の2つの損失からなるアテンション・ポイント・ネットワークを設計した。
実験結果から,小型オブジェクトインスタンスを用いた標準指向型空中データセットにおける注意点ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2024-01-12T11:00:07Z) - PointOBB: Learning Oriented Object Detection via Single Point
Supervision [55.88982271340328]
本稿では,オブジェクト指向物体検出のための最初の単一点ベース OBB 生成法である PointOBB を提案する。
PointOBBは、オリジナルビュー、リサイズビュー、ローテーション/フリップ(rot/flp)ビューの3つのユニークなビューの協調利用を通じて動作する。
DIOR-RとDOTA-v1.0データセットの実験結果は、PointOBBが有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2023-11-23T15:51:50Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Illicit item detection in X-ray images for security applications [7.519872646378835]
X線画像におけるコントラバンドアイテムの自動検出は、公共の安全を著しく向上させる。
ディープニューラルネットワーク(DNN)に依存する現代のコンピュータビジョンアルゴリズムは、このタスクを遂行できることを証明している。
本稿では,X線解析領域におけるそのようなアルゴリズムの2倍の改良を提案する。
論文 参考訳(メタデータ) (2023-05-03T07:28:05Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - Anchor Retouching via Model Interaction for Robust Object Detection in
Aerial Images [15.404024559652534]
本稿では,新しいトレーニングサンプルジェネレータを構築するために,動的拡張アンカー(DEA)ネットワークを提案する。
提案手法は,適度な推論速度とトレーニングの計算オーバーヘッドを伴って,最先端の性能を精度良く達成する。
論文 参考訳(メタデータ) (2021-12-13T14:37:20Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - Double-Dot Network for Antipodal Grasp Detection [20.21384585441404]
本稿では,Double-Dot Network (DD-Net) という,対足足歩行検出のための新しい深層学習手法を提案する。
これは、経験的にプリセットされたアンカーに依存しない最近のアンカーフリーなオブジェクト検出フレームワークに従っている。
このような指先をローカライズするために効果的なCNNアーキテクチャを導入し、改良のための補助センターの助けを借りて、把握候補を正確かつ堅牢に推測する。
論文 参考訳(メタデータ) (2021-08-03T14:21:17Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。