論文の概要: Oriented Bounding Boxes for Small and Freely Rotated Objects
- arxiv url: http://arxiv.org/abs/2104.11854v1
- Date: Sat, 24 Apr 2021 02:04:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-04-27 14:41:42.295121
- Title: Oriented Bounding Boxes for Small and Freely Rotated Objects
- Title(参考訳): 小型・自由回転物体のための配向バウンディングボックス
- Authors: Mohsen Zand, Ali Etemad, and Michael Greenspan
- Abstract要約: 任意のサイズの自由回転物体を処理する新しい物体検出方法を提示する。
この方法は、グリッドセル位置におけるターゲットオブジェクトの特徴の正確な位置と向きを符号化する。
xView と DOTA データセットの評価から,提案手法は既存の最先端手法よりも一様に性能を向上することが示された。
- 参考スコア(独自算出の注目度): 7.6997148655751895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A novel object detection method is presented that handles freely rotated
objects of arbitrary sizes, including tiny objects as small as $2\times 2$
pixels. Such tiny objects appear frequently in remotely sensed images, and
present a challenge to recent object detection algorithms. More importantly,
current object detection methods have been designed originally to accommodate
axis-aligned bounding box detection, and therefore fail to accurately localize
oriented boxes that best describe freely rotated objects. In contrast, the
proposed CNN-based approach uses potential pixel information at multiple scale
levels without the need for any external resources, such as anchor boxes.The
method encodes the precise location and orientation of features of the target
objects at grid cell locations. Unlike existing methods which regress the
bounding box location and dimension,the proposed method learns all the required
information by classification, which has the added benefit of enabling oriented
bounding box detection without any extra computation. It thus infers the
bounding boxes only at inference time by finding the minimum surrounding box
for every set of the same predicted class labels. Moreover, a
rotation-invariant feature representation is applied to each scale, which
imposes a regularization constraint to enforce covering the 360 degree range of
in-plane rotation of the training samples to share similar features.
Evaluations on the xView and DOTA datasets show that the proposed method
uniformly improves performance over existing state-of-the-art methods.
- Abstract(参考訳): 2\times 2$ピクセルの小さなオブジェクトを含む任意のサイズのオブジェクトを自由に回転させる新しいオブジェクト検出方法が提案されている。
このような小さな物体はリモートセンシング画像に頻繁に現れ、最近の物体検出アルゴリズムに挑戦する。
さらに重要なことは、現在のオブジェクト検出法はもともと軸方向のバウンディングボックス検出を許容するように設計されており、従って、回転するオブジェクトを最もよく記述する向きのボックスを正確にローカライズすることができない。
これとは対照的に,提案手法では,アンカーボックスなどの外部リソースを必要とせず,複数スケールの画素情報を用いて,グリッドセル位置における対象オブジェクトの特徴の正確な位置と向きを符号化する。
境界ボックスの位置と次元を回帰する既存の方法とは異なり、提案手法は、余分な計算をせずに、指向的境界ボックス検出を可能にするという利点を付加した、分類による全ての必要な情報を学習する。
これにより、予測されたクラスラベルの集合ごとに最小の周囲ボックスを見つけることで、推論時にのみ境界ボックスを推論する。
さらに、各スケールに回転不変の特徴表現を適用し、トレーニングサンプルの360度回転範囲をカバーするように正規化制約を課し、同様の特徴を共有する。
xView と DOTA データセットの評価は,提案手法が既存の最先端手法よりも一様に性能を向上させることを示す。
関連論文リスト
- Find n' Propagate: Open-Vocabulary 3D Object Detection in Urban Environments [67.83787474506073]
我々は,現在のLiDARに基づく3Dオブジェクト検出システムの限界に対処する。
本稿では,3次元OVタスクに対する汎用textscFind n' Propagate アプローチを提案する。
我々は、新しいオブジェクトクラスに対する平均精度(AP)を最大3.97倍に向上させる。
論文 参考訳(メタデータ) (2024-03-20T12:51:30Z) - Linear Object Detection in Document Images using Multiple Object
Tracking [58.720142291102135]
線形オブジェクトは文書構造に関する実質的な情報を伝達する。
多くのアプローチはベクトル表現を復元できるが、1994年に導入された1つのクローズドソース技術のみである。
複数オブジェクト追跡を用いた文書画像中の線形オブジェクトの正確なインスタンスセグメンテーションのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:22:03Z) - One-Shot General Object Localization [43.88712478006662]
OneLocは一般的なワンショットオブジェクトローカライゼーションアルゴリズムである。
OneLocは、特別な投票方式により、オブジェクトセンターとバウンディングボックスサイズを効率的に見つける。
実験の結果,提案手法は2つのデータセットに対して,最先端の総合的な性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-11-24T03:14:04Z) - H2RBox: Horizonal Box Annotation is All You Need for Oriented Object
Detection [63.66553556240689]
オブジェクト指向物体検出は、空中画像から自律運転に至るまで、多くの用途に現れる。
多くの既存の検出ベンチマークには水平バウンディングボックスがアノテートされているが、これはきめ細かな回転ボックスよりもコストが低い。
本稿では,H2RBoxと呼ばれる単純なオブジェクト指向検出手法を提案する。
論文 参考訳(メタデータ) (2022-10-13T05:12:45Z) - BoxMask: Revisiting Bounding Box Supervision for Video Object Detection [11.255962936937744]
そこで,BoxMaskを提案する。このBoxMaskは,クラス対応の画素レベルの情報を取り入れることで,識別表現を学習する。
提案されたモジュールは、検出を促進するため、任意の領域ベースの検出器に懸命に統合することができる。
論文 参考訳(メタデータ) (2022-10-12T08:25:27Z) - ImpDet: Exploring Implicit Fields for 3D Object Detection [74.63774221984725]
我々は、境界ボックス回帰を暗黙の関数として見る新しい視点を導入する。
これは、Implicit DetectionまたはImpDetと呼ばれる提案されたフレームワークにつながります。
我々のImpDetは、異なる局所的な3次元空間の点に特定の値を割り当て、高品質な境界を生成することができる。
論文 参考訳(メタデータ) (2022-03-31T17:52:12Z) - Oriented RepPoints for Aerial Object Detection [10.818838437018682]
本稿では,オブジェクト指向RepPointsという,空中物体検出のための新しい手法を提案する。
具体的には、任意指向オブジェクトの幾何学的および空間的情報を取得するために、適応点の集合を用いることを提案する。
教師付き学習を容易にするために,適応点を配向境界ボックスに明示的にマッピングする指向変換関数を提案する。
論文 参考訳(メタデータ) (2021-05-24T06:18:23Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - Oriented Object Detection in Aerial Images with Box Boundary-Aware
Vectors [21.484827209503823]
空中画像中の物体を任意の方向に表示するため、空中画像中の物体の配向検出は難しい作業である。
現在のオブジェクト指向物体検出法は、主に2段階のアンカーベース検出器に依存している。
水平キーポイントに基づくオブジェクトをオブジェクト指向オブジェクト検出タスクに拡張する。
論文 参考訳(メタデータ) (2020-08-17T00:56:50Z) - Dive Deeper Into Box for Object Detection [49.923586776690115]
そこで我々は,より正確な位置決めを行うために,ボックスに深く潜り込むことができるボックス再構成手法(DDBNet)を提案する。
実験結果から,本手法はオブジェクト検出の最先端性能に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-15T07:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。