論文の概要: AD-Det: Boosting Object Detection in UAV Images with Focused Small Objects and Balanced Tail Classes
- arxiv url: http://arxiv.org/abs/2504.05601v1
- Date: Tue, 08 Apr 2025 01:22:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:58.667083
- Title: AD-Det: Boosting Object Detection in UAV Images with Focused Small Objects and Balanced Tail Classes
- Title(参考訳): AD-Det: 焦点の小さいオブジェクトとバランスの取れたタイルクラスを用いたUAV画像におけるオブジェクト検出の高速化
- Authors: Zhenteng Li, Sheng Lian, Dengfeng Pan, Youlin Wang, Wei Liu,
- Abstract要約: 新しいフレームワークであるAD-Detは、UAV画像におけるスケール変動とクラス不均衡の課題に対処するために開発された。
VisDroneとUAVDTの2つの公開データセットに対して,我々のアプローチを広範囲に評価した。
特にAD-Detは、VisDroneデータセット上の平均精度(AP)を37.5%達成し、少なくとも3.1%以上上回っている。
- 参考スコア(独自算出の注目度): 3.9288569799432214
- License:
- Abstract: Object detection in Unmanned Aerial Vehicle (UAV) images poses significant challenges due to complex scale variations and class imbalance among objects. Existing methods often address these challenges separately, overlooking the intricate nature of UAV images and the potential synergy between them. In response, this paper proposes AD-Det, a novel framework employing a coherent coarse-to-fine strategy that seamlessly integrates two pivotal components: Adaptive Small Object Enhancement (ASOE) and Dynamic Class-balanced Copy-paste (DCC). ASOE utilizes a high-resolution feature map to identify and cluster regions containing small objects. These regions are subsequently enlarged and processed by a fine-grained detector. On the other hand, DCC conducts object-level resampling by dynamically pasting tail classes around the cluster centers obtained by ASOE, main-taining a dynamic memory bank for each tail class. This approach enables AD-Det to not only extract regions with small objects for precise detection but also dynamically perform reasonable resampling for tail-class objects. Consequently, AD-Det enhances the overall detection performance by addressing the challenges of scale variations and class imbalance in UAV images through a synergistic and adaptive framework. We extensively evaluate our approach on two public datasets, i.e., VisDrone and UAVDT, and demonstrate that AD-Det significantly outperforms existing competitive alternatives. Notably, AD-Det achieves a 37.5% Average Precision (AP) on the VisDrone dataset, surpassing its counterparts by at least 3.1%.
- Abstract(参考訳): 無人航空機(UAV)画像における物体検出は、複雑なスケールのばらつきと、物体間のクラス不均衡によって大きな課題を生じさせる。
既存の方法では、UAV画像の複雑な性質とそれらの間の潜在的な相乗効果を見越して、これらの課題に別々に対処することが多い。
そこで本稿では,Adaptive Small Object Enhancement (ASOE) と Dynamic Class- Balanced Copy-paste (DCC) の2つの重要なコンポーネントをシームレスに統合する,コヒーレントな粗大な戦略を用いた新しいフレームワークであるAD-Detを提案する。
ASOEは高解像度の特徴マップを使用して、小さなオブジェクトを含むクラスタ領域を特定し、クラスタ化する。
これらの領域はその後拡大され、微細な検出器によって処理される。
一方、DCCは、ASOEが取得したクラスタセンタを中心に、動的にテールクラスを貼り付け、各テールクラスに対して動的メモリバンクを主保持することにより、オブジェクトレベルのリサンプリングを行う。
このアプローチにより、AD-Detは小さなオブジェクトを持つ領域を抽出して正確な検出を行うだけでなく、テールクラスのオブジェクトに対する合理的な再サンプリングを動的に行うことができる。
その結果、AD-Detは、相乗的で適応的なフレームワークを通じて、UAV画像のスケール変動とクラス不均衡の課題に対処することにより、全体的な検出性能を向上させる。
我々は、VisDroneとUAVDTという2つの公開データセットに対する我々のアプローチを広く評価し、AD-Detが既存の競合する選択肢を大幅に上回っていることを実証した。
特にAD-Detは、VisDroneデータセット上の平均精度(AP)を37.5%達成し、少なくとも3.1%以上上回っている。
関連論文リスト
- Efficient Feature Fusion for UAV Object Detection [9.632727117779178]
特に小さな物体は画像のごく一部を占めており、正確な検出を困難にしている。
既存のマルチスケール機能融合手法は、様々な解像度で機能を集約することでこれらの課題に対処する。
本稿では,UAVオブジェクト検出タスクに特化して設計された新しい機能融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-29T20:39:16Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - Better Sampling, towards Better End-to-end Small Object Detection [7.7473020808686694]
限られた特性と高密度と相互重なり合いのため、小さな物体検出は不満足なままである。
エンド・ツー・エンド・フレームワークにおけるサンプリングの強化手法を提案する。
我々のモデルは、VisDroneデータセット上での最先端(SOTA)よりも平均精度(AP)が2.9%向上することを示す。
論文 参考訳(メタデータ) (2024-05-17T04:37:44Z) - Learning Feature Inversion for Multi-class Anomaly Detection under General-purpose COCO-AD Benchmark [101.23684938489413]
異常検出(AD)は、しばしば産業品質検査や医学的病変検査のための異常の検出に焦点が当てられている。
この研究はまず、COCOをADフィールドに拡張することにより、大規模で汎用的なCOCO-ADデータセットを構築する。
セグメンテーション分野のメトリクスにインスパイアされた我々は、より実用的なしきい値に依存したAD固有のメトリクスをいくつか提案する。
論文 参考訳(メタデータ) (2024-04-16T17:38:26Z) - Cross-Domain Few-Shot Object Detection via Enhanced Open-Set Object Detector [72.05791402494727]
本稿では,CD-FSODを用いたクロスドメイン小ショット検出法について検討する。
最小限のラベル付き例で、新しいドメインのための正確なオブジェクト検出器を開発することを目的としている。
論文 参考訳(メタデータ) (2024-02-05T15:25:32Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - ADAS: A Simple Active-and-Adaptive Baseline for Cross-Domain 3D Semantic
Segmentation [38.66509154973051]
本研究では,よく訓練された3次元セグメンテーションモデルの弱いクロスドメイン一般化能力を高めるために,アクティブ・アンド・アダプティブ(ADAS)ベースラインを提案する。
ADASは、有効適応のために、ソースドメインとターゲットドメインの両方から最大不変サブセットを選択するアクティブサンプリング操作を実行する。
1) 対象ドメインからのすべてのサンプルがラベル付けされていないことを意味するUnsupervised Domain Adaptation (UDA)、2) Unsupervised Few-shot Domain Adaptation (UFDA)、つまり、ラベル付けされていないサンプルがラベル付けされていないターゲットドメインでのみ利用可能であることを意味する。
論文 参考訳(メタデータ) (2022-12-20T16:17:40Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - Anchor Retouching via Model Interaction for Robust Object Detection in
Aerial Images [15.404024559652534]
本稿では,新しいトレーニングサンプルジェネレータを構築するために,動的拡張アンカー(DEA)ネットワークを提案する。
提案手法は,適度な推論速度とトレーニングの計算オーバーヘッドを伴って,最先端の性能を精度良く達成する。
論文 参考訳(メタデータ) (2021-12-13T14:37:20Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - PENet: Object Detection using Points Estimation in Aerial Images [9.33900415971554]
これらの課題に対処するために,新しいネットワーク構造であるポイント推定ネットワーク(PENet)を提案する。
PENetはMask Resampling Module(MRM)を使用して、不均衡なデータセットを増大させ、粗いアンカーフリー検出器(CPEN)で小さなオブジェクトクラスタの中心点を効果的に予測し、微細なアンカーフリー検出器FPENで小さなオブジェクトの正確な位置を特定する。
航空データセット visDrone と UAVDT による実験により,PENet は既存の最先端手法よりも精度の高い結果を得た。
論文 参考訳(メタデータ) (2020-01-22T19:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。