論文の概要: DASSF: Dynamic-Attention Scale-Sequence Fusion for Aerial Object Detection
- arxiv url: http://arxiv.org/abs/2406.12285v1
- Date: Tue, 18 Jun 2024 05:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 20:35:42.208593
- Title: DASSF: Dynamic-Attention Scale-Sequence Fusion for Aerial Object Detection
- Title(参考訳): DASSF: 空中物体検出のためのダイナミックアテンションスケールシーケンスフュージョン
- Authors: Haodong Li, Haicheng Qu,
- Abstract要約: 元のYOLOアルゴリズムは、異なるスケールのターゲットを認識する能力の弱いため、全体的な検出精度が低い。
本稿では,空中画像のターゲット検出のための動的アテンションスケール系列融合アルゴリズム(DASSF)を提案する。
DASSF法をYOLOv8nと比較すると,平均平均精度(mAP)は9.2%,2.4%増加した。
- 参考スコア(独自算出の注目度): 6.635903943457569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The detection of small objects in aerial images is a fundamental task in the field of computer vision. Moving objects in aerial photography have problems such as different shapes and sizes, dense overlap, occlusion by the background, and object blur, however, the original YOLO algorithm has low overall detection accuracy due to its weak ability to perceive targets of different scales. In order to improve the detection accuracy of densely overlapping small targets and fuzzy targets, this paper proposes a dynamic-attention scale-sequence fusion algorithm (DASSF) for small target detection in aerial images. First, we propose a dynamic scale sequence feature fusion (DSSFF) module that improves the up-sampling mechanism and reduces computational load. Secondly, a x-small object detection head is specially added to enhance the detection capability of small targets. Finally, in order to improve the expressive ability of targets of different types and sizes, we use the dynamic head (DyHead). The model we proposed solves the problem of small target detection in aerial images and can be applied to multiple different versions of the YOLO algorithm, which is universal. Experimental results show that when the DASSF method is applied to YOLOv8, compared to YOLOv8n, on the VisDrone-2019 and DIOR datasets, the model shows an increase of 9.2% and 2.4% in the mean average precision (mAP), respectively, and outperforms the current mainstream methods.
- Abstract(参考訳): 空中画像における小さな物体の検出は、コンピュータビジョンの分野における基本的な課題である。
空中撮影における移動物体には、形状や大きさ、重なり合い、背景による隠蔽、物体のぼやけなどの問題があるが、元のYOLOアルゴリズムは、異なるスケールの目標を知覚する能力の弱いため、全体的な検出精度が低い。
そこで本研究では,小型目標とファジィ目標の重なり合う検出精度を向上させるために,空中画像における小型目標検出のためのダイナミックアテンションスケール系列融合アルゴリズム(DASSF)を提案する。
まず、アップサンプリング機構を改善し、計算負荷を低減する動的スケールシーケンス機能融合(DSSFF)モジュールを提案する。
第2に、小目標の検出能力を高めるために、特別にx小物体検出ヘッドを付加する。
最後に、異なるタイプやサイズのターゲットの表現能力を改善するために、動的ヘッド(DyHead)を使用します。
提案するモデルでは,航空画像における目標検出の小型化が問題視され,YOLOアルゴリズムの多種多様なバージョンに適用可能である。
実験の結果, YOLOv8nと比較すると, 平均平均精度 (mAP) は9.2%, DIORは2.4%向上し, 現在の主流手法よりも優れていた。
関連論文リスト
- SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - YOLC: You Only Look Clusters for Tiny Object Detection in Aerial Images [33.80392696735718]
YOLC(You Only Look Clusters)は、アンカーフリーなオブジェクト検出器であるCenterNet上に構築された、効率的で効果的なフレームワークである。
大規模画像や非一様オブジェクトの分布がもたらす課題を克服するため,正確な検出のためにクラスタ領域のズームインを適応的に検索するローカルスケールモジュール(LSM)を導入する。
Visdrone 2019 と UAVDT を含む2つの航空画像データセットに対する広範な実験を行い、提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-04-09T10:03:44Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - An advanced YOLOv3 method for small object detection [2.906551456030129]
本稿では,小型物体検出のための改良型YOLOv3アルゴリズムを提案する。
提案手法では,拡張畳み込みミッシュ(DCM)モジュールをYOLOv3のバックボーンネットワークに導入する。
YOLOv3のネックネットワークでは、畳み込みブロックアテンションモジュール(CBAM)とマルチレベル融合モジュールが導入されている。
論文 参考訳(メタデータ) (2022-12-06T07:58:21Z) - ARUBA: An Architecture-Agnostic Balanced Loss for Aerial Object
Detection [24.085715205081385]
我々は、オブジェクトのサイズを画像中の画素数、サイズ不均衡として、データセット内の特定のサイズのオブジェクトの過剰表現として表現する。
本稿では,任意のオブジェクト検出モデル上にプラグインとして適用可能な,新しいARchitectUre-Agnostic BAlanced Loss (ARUBA)を提案する。
論文 参考訳(メタデータ) (2022-10-10T11:28:16Z) - Towards Model Generalization for Monocular 3D Object Detection [57.25828870799331]
我々は,Mono3Dオブジェクト検出に有効な統合カメラ一般化パラダイム(CGP)を提案する。
また,インスタンスレベルの拡張によりギャップを埋める2D-3D幾何一貫性オブジェクトスケーリング戦略(GCOS)を提案する。
DGMono3Dと呼ばれる手法は、評価された全てのデータセットに対して顕著な性能を達成し、SoTAの教師なしドメイン適応スキームを上回ります。
論文 参考訳(メタデータ) (2022-05-23T23:05:07Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。