論文の概要: PointOBB-v2: Towards Simpler, Faster, and Stronger Single Point Supervised Oriented Object Detection
- arxiv url: http://arxiv.org/abs/2410.08210v1
- Date: Thu, 10 Oct 2024 17:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 04:46:03.659619
- Title: PointOBB-v2: Towards Simpler, Faster, and Stronger Single Point Supervised Oriented Object Detection
- Title(参考訳): PointOBB-v2: よりシンプルで、より高速で、より強力な一点監視対象検出を目指す
- Authors: Botao Ren, Xue Yang, Yi Yu, Junwei Luo, Zhidong Deng,
- Abstract要約: 単一点教師付きオブジェクト指向オブジェクト検出が注目され、コミュニティ内で最初の進歩を遂げた。
本稿では,よりシンプルで高速で,より強力な手法であるPointOBB-v2を提案する。
- 参考スコア(独自算出の注目度): 14.396629790635474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single point supervised oriented object detection has gained attention and made initial progress within the community. Diverse from those approaches relying on one-shot samples or powerful pretrained models (e.g. SAM), PointOBB has shown promise due to its prior-free feature. In this paper, we propose PointOBB-v2, a simpler, faster, and stronger method to generate pseudo rotated boxes from points without relying on any other prior. Specifically, we first generate a Class Probability Map (CPM) by training the network with non-uniform positive and negative sampling. We show that the CPM is able to learn the approximate object regions and their contours. Then, Principal Component Analysis (PCA) is applied to accurately estimate the orientation and the boundary of objects. By further incorporating a separation mechanism, we resolve the confusion caused by the overlapping on the CPM, enabling its operation in high-density scenarios. Extensive comparisons demonstrate that our method achieves a training speed 15.58x faster and an accuracy improvement of 11.60%/25.15%/21.19% on the DOTA-v1.0/v1.5/v2.0 datasets compared to the previous state-of-the-art, PointOBB. This significantly advances the cutting edge of single point supervised oriented detection in the modular track.
- Abstract(参考訳): 単一点教師付きオブジェクト指向オブジェクト検出が注目され、コミュニティ内で最初の進歩を遂げた。
ワンショットサンプルや強力な事前訓練モデル(SAMなど)に依存しているアプローチとは違って、PointOBBはそのプリフリー機能のために、将来性を示している。
本稿では,よりシンプルで高速で,より強力な手法であるPointOBB-v2を提案する。
具体的には,非一様正と負のサンプリングでネットワークをトレーニングすることにより,まずクラス確率マップ(CPM)を生成する。
我々は,CPMが近似対象領域とその輪郭を学習可能であることを示す。
次に、主成分分析(PCA)を適用し、オブジェクトの向きと境界を正確に推定する。
さらに分離機構を組み込むことで,CPM上の重なり合いによる混乱を解消し,高密度シナリオでの動作を可能にする。
DOTA-v1.0/v1.5/v2.0データセットのトレーニング速度は15.58倍,精度は11.60%/25.15%/21.19%向上した。
これにより、モジュラトラックにおける単一点指向検出の切断エッジが大幅に向上する。
関連論文リスト
- PointOBB-v3: Expanding Performance Boundaries of Single Point-Supervised Oriented Object Detection [65.84604846389624]
我々は,より強力な単一点制御OODフレームワークであるPointOBB-v3を提案する。
追加のプリミティブなしで擬似回転ボックスを生成し、エンドツーエンドのパラダイムをサポートする。
本手法は従来の最先端手法と比較して3.56%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-23T18:18:15Z) - Realtime Robust Shape Estimation of Deformable Linear Object [5.63550507123537]
本研究では, 線形変形可能な物体の形状を, 分散鍵点と非順序鍵点を用いてリアルタイムで推定するロバストな手法を提案する。
鍵点が部分的に無視されている場合の手法のロバスト性を示す。
提案手法は,長さ1m,半径5mmのケーブルの形状を追跡するためのUnityのシミュレーションにも組み込まれている。
論文 参考訳(メタデータ) (2024-03-24T13:36:23Z) - PointOBB: Learning Oriented Object Detection via Single Point
Supervision [55.88982271340328]
本稿では,オブジェクト指向物体検出のための最初の単一点ベース OBB 生成法である PointOBB を提案する。
PointOBBは、オリジナルビュー、リサイズビュー、ローテーション/フリップ(rot/flp)ビューの3つのユニークなビューの協調利用を通じて動作する。
DIOR-RとDOTA-v1.0データセットの実験結果は、PointOBBが有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2023-11-23T15:51:50Z) - Object Localization under Single Coarse Point Supervision [107.46800858130658]
本稿では,粗い点アノテーションを用いたPOL手法を提案する。
CPRは、ポイントバッグを構築し、セマンティック関連点を選択し、マルチインスタンス学習(MIL)を通してセマンティックセンターポイントを生成する。
このようにして、CPRは、粗い点監督の下で高性能オブジェクトローカライザのトレーニングを保証する、弱い制御された進化手順を定義する。
論文 参考訳(メタデータ) (2022-03-17T14:14:11Z) - Anchor Retouching via Model Interaction for Robust Object Detection in
Aerial Images [15.404024559652534]
本稿では,新しいトレーニングサンプルジェネレータを構築するために,動的拡張アンカー(DEA)ネットワークを提案する。
提案手法は,適度な推論速度とトレーニングの計算オーバーヘッドを伴って,最先端の性能を精度良く達成する。
論文 参考訳(メタデータ) (2021-12-13T14:37:20Z) - Point-Level Temporal Action Localization: Bridging Fully-supervised
Proposals to Weakly-supervised Losses [84.2964408497058]
point-level temporal action localization (ptal) は、各アクションインスタンスに対して1つのタイムスタンプアノテーションで、未トリミングビデオ内のアクションをローカライズすることを目的としている。
既存の手法ではフレームレベルの予測パラダイムを採用し、スパース単一フレームラベルから学習する。
本稿では,ポイントレベルアノテーションの提案に基づく予測パラダイムを検討する。
論文 参考訳(メタデータ) (2020-12-15T12:11:48Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。