論文の概要: Task-wise Sampling Convolutions for Arbitrary-Oriented Object Detection
in Aerial Images
- arxiv url: http://arxiv.org/abs/2209.02200v1
- Date: Tue, 6 Sep 2022 03:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:15:33.080064
- Title: Task-wise Sampling Convolutions for Arbitrary-Oriented Object Detection
in Aerial Images
- Title(参考訳): 航空機画像における任意方向物体検出のためのタスクワイズサンプリング畳み込み
- Authors: Zhanchao Huang, Wei Li, Xiang-Gen Xia, Hao Wang, and Ran Tao
- Abstract要約: 本稿では,タスクワイズサンプリング畳み込み(TS-Conv)と呼ばれるAOOD手法を提案する。
TS-Convは、各センシティブな領域からタスクワイズな特徴を適応的にサンプリングし、これらの特徴をアライメントしてマッピングすることで、より優れた予測のための動的ラベル割り当てをガイドする。
複数のシーン、マルチモーダル画像、オブジェクトの複数のカテゴリをカバーする公開データセットの実験は、提案したTS-Convの有効性、スケーラビリティ、優れたパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 12.099587829621886
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Arbitrary-oriented object detection (AOOD) has been widely applied to locate
and classify objects with diverse orientations in remote sensing images.
However, the inconsistent features for the localization and classification
tasks in AOOD models may lead to ambiguity and low-quality object predictions,
which constrains the detection performance. In this paper, an AOOD method
called task-wise sampling convolutions (TS-Conv) is proposed. TS-Conv
adaptively samples task-wise features from respective sensitive regions and
maps these features together in alignment to guide a dynamic label assignment
for better predictions. Specifically, sampling positions of the localization
convolution in TS-Conv is supervised by the oriented bounding box (OBB)
prediction associated with spatial coordinates. While sampling positions and
convolutional kernel of the classification convolution are designed to be
adaptively adjusted according to different orientations for improving the
orientation robustness of features. Furthermore, a dynamic task-aware label
assignment (DTLA) strategy is developed to select optimal candidate positions
and assign labels dynamicly according to ranked task-aware scores obtained from
TS-Conv. Extensive experiments on several public datasets covering multiple
scenes, multimodal images, and multiple categories of objects demonstrate the
effectiveness, scalability and superior performance of the proposed TS-Conv.
- Abstract(参考訳): 任意指向物体検出(aood)は、リモートセンシング画像における多様な向きを持つ物体の同定と分類に広く用いられている。
しかし、AOODモデルにおける局所化と分類タスクの不整合性は、検出性能を制約する曖昧さと低品質なオブジェクト予測につながる可能性がある。
本稿では,タスクワイズサンプリング畳み込み(TS-Conv)と呼ばれるAOOD手法を提案する。
TS-Convは、各センシティブな領域からタスクワイズな特徴を適応的にサンプリングし、これらの特徴をアライメントしてマッピングすることで、より優れた予測のための動的ラベル割り当てをガイドする。
具体的には、TS-Convにおける局所化畳み込みのサンプリング位置は、空間座標に付随する配向境界ボックス(OBB)予測によって制御される。
分類畳み込みのサンプリング位置と畳み込み核は、特徴の配向ロバスト性を改善するために異なる向きに応じて適応的に調整されるように設計されている。
さらに、TS-Convから得られたランク付タスク対応スコアに応じて最適な候補位置を選択し、ラベルを動的に割り当てる動的タスク対応ラベル割り当て(DTLA)戦略を開発する。
複数のシーン、マルチモーダル画像、複数カテゴリのオブジェクトを含む複数の公開データセットに対する大規模な実験は、提案したTS-Convの有効性、スケーラビリティ、優れた性能を示している。
関連論文リスト
- Multi-clue Consistency Learning to Bridge Gaps Between General and Oriented Object in Semi-supervised Detection [26.486535389258965]
半教師あり学習における汎用物体検出とオブジェクト指向物体検出の3つのギャップを実験的に発見する。
本稿では,これらのギャップを埋めるために,MCL(Multi-clue Consistency Learning)フレームワークを提案する。
提案したMCLは,半教師付きオブジェクト指向物体検出タスクにおいて最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2024-07-08T13:14:25Z) - Decoupled DETR: Spatially Disentangling Localization and Classification
for Improved End-to-End Object Detection [48.429555904690595]
本稿では,タスク認識型問合せ生成モジュールと切り離された特徴学習プロセスを含む空間的に分離されたDETRを紹介する。
提案手法は,従来の研究に比べてMSCOCOデータセットの大幅な改善を実現していることを示す。
論文 参考訳(メタデータ) (2023-10-24T15:54:11Z) - Metric-aligned Sample Selection and Critical Feature Sampling for
Oriented Object Detection [4.677438149607058]
サンプルの品質を評価するためにアフィン変換を導入し、距離に基づくラベル割り当て戦略を提案する。
提案手法は,物体の形状と回転特性に応じて動的に試料を選択可能である。
その結果,提案した検出器の最先端の精度が示された。
論文 参考訳(メタデータ) (2023-06-29T06:36:46Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - Dynamic Label Assignment for Object Detection by Combining Predicted and
Anchor IoUs [20.41563386339572]
本稿では,予測付きトレーニング状況に基づいてラベル割り当てを動的に行うための,シンプルで効果的な手法を提案する。
本手法は,適応ラベル代入アルゴリズムによる検出モデルの性能改善を示す。
論文 参考訳(メタデータ) (2022-01-23T23:14:07Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - Semi-Supervised Domain Adaptation via Adaptive and Progressive Feature
Alignment [32.77436219094282]
SSDASはラベル付きターゲットサンプルを、ラベル付きソースサンプルとラベルなしターゲットサンプルの間に適応的かつプログレッシブな特徴アライメントのためのアンカーとして採用している。
さらに、反復学習過程において、異種音源の特徴を高信頼目標特徴に置き換える。
広範な実験により、提案されたSSDASは、多くのベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2021-06-05T09:12:50Z) - I^3Net: Implicit Instance-Invariant Network for Adapting One-Stage
Object Detectors [64.93963042395976]
暗黙のInstance-Invariant Network(I3Net)は、ワンステージ検出器の適応に適しています。
i3netは、異なる層における深い特徴の自然な特徴を利用してインスタンス不変な特徴を暗黙的に学習する。
実験によると、I3Netはベンチマークデータセットの最先端のパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2021-03-25T11:14:36Z) - Fine-Grained Dynamic Head for Object Detection [68.70628757217939]
本稿では,各インスタンスの異なるスケールからfpn特徴の画素レベルの組み合わせを条件付きで選択する,きめ細かい動的ヘッドを提案する。
実験は,いくつかの最先端検出ベンチマークにおける提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-07T08:16:32Z) - Autonomous and cooperative design of the monitor positions for a team of
UAVs to maximize the quantity and quality of detected objects [0.5801044612920815]
本稿では、完全に未知の地形内にUAVの群れを配置する問題に取り組む。
YOLOv3と複製対象を識別するシステムを用いて、各UAVの構成に1つのスコアを割り当てた。
予め定義されたスコアを最適化できる新しいナビゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:52:57Z) - Adaptive Object Detection with Dual Multi-Label Prediction [78.69064917947624]
本稿では,適応オブジェクト検出のための新しいエンド・ツー・エンドの非教師付き深部ドメイン適応モデルを提案する。
モデルはマルチラベル予測を利用して、各画像内の対象カテゴリ情報を明らかにする。
本稿では,オブジェクト検出を支援するための予測整合正則化機構を提案する。
論文 参考訳(メタデータ) (2020-03-29T04:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。