論文の概要: ObjectBox: From Centers to Boxes for Anchor-Free Object Detection
- arxiv url: http://arxiv.org/abs/2207.06985v1
- Date: Thu, 14 Jul 2022 15:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:16:52.506706
- Title: ObjectBox: From Centers to Boxes for Anchor-Free Object Detection
- Title(参考訳): objectbox: アンカーフリーオブジェクト検出のためのセンターからボックスへ
- Authors: Mohsen Zand, Ali Etemad, Michael Greenspan
- Abstract要約: 我々は,単一ステージのアンカーフリーかつ高一般化可能なオブジェクト検出手法であるObjectBoxを提案する。
既存のアンカーベースおよびアンカーフリー検出器とは対照的に、対象中心位置のみを正のサンプルとして使用する。
提案手法をMS-COCO 2017およびPASCAL VOC 2012データセット上で評価し,その結果を最先端の手法と比較した。
- 参考スコア(独自算出の注目度): 14.75815792682734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ObjectBox, a novel single-stage anchor-free and highly
generalizable object detection approach. As opposed to both existing
anchor-based and anchor-free detectors, which are more biased toward specific
object scales in their label assignments, we use only object center locations
as positive samples and treat all objects equally in different feature levels
regardless of the objects' sizes or shapes. Specifically, our label assignment
strategy considers the object center locations as shape- and size-agnostic
anchors in an anchor-free fashion, and allows learning to occur at all scales
for every object. To support this, we define new regression targets as the
distances from two corners of the center cell location to the four sides of the
bounding box. Moreover, to handle scale-variant objects, we propose a tailored
IoU loss to deal with boxes with different sizes. As a result, our proposed
object detector does not need any dataset-dependent hyperparameters to be tuned
across datasets. We evaluate our method on MS-COCO 2017 and PASCAL VOC 2012
datasets, and compare our results to state-of-the-art methods. We observe that
ObjectBox performs favorably in comparison to prior works. Furthermore, we
perform rigorous ablation experiments to evaluate different components of our
method. Our code is available at: https://github.com/MohsenZand/ObjectBox.
- Abstract(参考訳): 単段アンカーフリーかつ高一般化可能なオブジェクト検出手法であるObjectBoxを提案する。
既存のアンカーベースおよびアンカーフリー検出器はラベルの割り当てにおいて特定のオブジェクトスケールに偏りが強いため、対象中心位置のみを正のサンプルとして使用し、オブジェクトのサイズや形状に関わらず、全てのオブジェクトを等しく異なる特徴レベルで扱う。
具体的には,対象の中心位置をアンカーフリーな方法で形状および大きさに依存しないアンカーとみなし,各対象に対してあらゆるスケールでの学習を可能にする。
これをサポートするため、新しい回帰対象を、中心セルの位置の2つの角から境界ボックスの4つの辺までの距離として定義する。
さらに、スケール変動オブジェクトを扱うために、異なるサイズのボックスを扱うために、IoUロスを調整した。
その結果、提案するオブジェクト検出器はデータセット間で調整されるデータセット依存のハイパーパラメータを必要としない。
提案手法をMS-COCO 2017およびPASCAL VOC 2012データセット上で評価し,その結果を最先端の手法と比較した。
我々は、ObjectBoxが以前の作業と比べて好適に機能することを観察する。
さらに, 本手法の異なる成分を評価するために, 厳密なアブレーション実験を行った。
私たちのコードは、https://github.com/MohsenZand/ObjectBox.comで利用可能です。
関連論文リスト
- Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - YUDO: YOLO for Uniform Directed Object Detection [0.0]
本稿では,その中心座標と方向角を予測し,対象物を検出する効率的な方法を提案する。
物体の大きさは均一であるため, 物体の幅や高さを予測せずに動作可能である。
論文 参考訳(メタデータ) (2023-08-08T19:18:20Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - One-Shot General Object Localization [43.88712478006662]
OneLocは一般的なワンショットオブジェクトローカライゼーションアルゴリズムである。
OneLocは、特別な投票方式により、オブジェクトセンターとバウンディングボックスサイズを効率的に見つける。
実験の結果,提案手法は2つのデータセットに対して,最先端の総合的な性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-11-24T03:14:04Z) - RFLA: Gaussian Receptive Field based Label Assignment for Tiny Object
Detection [45.10513110142015]
現在のアンカーベースまたはアンカーフリーなラベル割り当てパラダイムは、多くのアウトリーな小さな基底真理サンプルを発生させる。
本稿では,小物体検出のためのガウス受容場に基づくラベルアサインメント(RFLA)戦略を提案する。
当社のアプローチは、AI-TODデータセットの4.0APポイントで最先端の競合より優れています。
論文 参考訳(メタデータ) (2022-08-18T09:35:56Z) - CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - Active Perception for Ambiguous Objects Classification [7.837959746116199]
現実世界では、単一の視点から正確な分類と検出を許さないあいまいな物体を見つけることができる。
本稿では,オブジェクトの単一ビューが与えられた場合,オブジェクトを類似するものと識別するための次の視点の座標を提供し,あいまいさを解消するフレームワークを提案する。
我々は,フランカ・エミカ・パンダロボットと,あいまいさを特徴とする一般家庭用物体を用いて,我々のアプローチを検証する。
論文 参考訳(メタデータ) (2021-08-02T09:12:34Z) - Oriented Bounding Boxes for Small and Freely Rotated Objects [7.6997148655751895]
任意のサイズの自由回転物体を処理する新しい物体検出方法を提示する。
この方法は、グリッドセル位置におけるターゲットオブジェクトの特徴の正確な位置と向きを符号化する。
xView と DOTA データセットの評価から,提案手法は既存の最先端手法よりも一様に性能を向上することが示された。
論文 参考訳(メタデータ) (2021-04-24T02:04:49Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - Ocean: Object-aware Anchor-free Tracking [75.29960101993379]
アンカーベース手法の回帰ネットワークは、正のアンカーボックスでのみ訓練される。
本稿では,この問題に対処する新しいオブジェクト認識型アンカーフリーネットワークを提案する。
我々のアンカーフリートラッカーは5つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-18T17:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。