論文の概要: Boundary and Position Information Mining for Aerial Small Object Detection
- arxiv url: http://arxiv.org/abs/2601.16617v1
- Date: Fri, 23 Jan 2026 10:15:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.628812
- Title: Boundary and Position Information Mining for Aerial Small Object Detection
- Title(参考訳): 空中小物体検出のための境界・位置情報マイニング
- Authors: Rongxin Huang, Guangfeng Lin, Wenbo Zhou, Zhirong Li, Wenhuan Wu,
- Abstract要約: 境界・位置情報マイニング(BPIM)フレームワークは,物体のエッジと位置を捉えるために提案されている。
BPIMは、注意機構とクロススケールな特徴融合戦略を用いて、小さな物体検出のための境界情報、位置情報、スケール情報を統合することができる。
- 参考スコア(独自算出の注目度): 13.886518281829604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned Aerial Vehicle (UAV) applications have become increasingly prevalent in aerial photography and object recognition. However, there are major challenges to accurately capturing small targets in object detection due to the imbalanced scale and the blurred edges. To address these issues, boundary and position information mining (BPIM) framework is proposed for capturing object edge and location cues. The proposed BPIM includes position information guidance (PIG) module for obtaining location information, boundary information guidance (BIG) module for extracting object edge, cross scale fusion (CSF) module for gradually assembling the shallow layer image feature, three feature fusion (TFF) module for progressively combining position and boundary information, and adaptive weight fusion (AWF) module for flexibly merging the deep layer semantic feature. Therefore, BPIM can integrate boundary, position, and scale information in image for small object detection using attention mechanisms and cross-scale feature fusion strategies. Furthermore, BPIM not only improves the discrimination of the contextual feature by adaptive weight fusion with boundary, but also enhances small object perceptions by cross-scale position fusion. On the VisDrone2021, DOTA1.0, and WiderPerson datasets, experimental results show the better performances of BPIM compared to the baseline Yolov5-P2, and obtains the promising performance in the state-of-the-art methods with comparable computation load.
- Abstract(参考訳): 無人航空機(UAV)の用途は、航空写真や物体認識においてますます普及している。
しかし、不均衡なスケールとぼやけたエッジのため、オブジェクト検出において小さなターゲットを正確に捉えるには大きな課題がある。
これらの問題に対処するため,境界情報マイニング(BPIM)フレームワークが提案されている。
提案するBPIMは、位置情報を取得する位置情報誘導(PIG)モジュール、対象エッジを抽出する境界情報誘導(BIG)モジュール、浅層画像特徴を徐々に組み立てるクロススケールフュージョン(CSF)モジュール、位置と境界情報を段階的に組み合わせる3つの特徴フュージョン(TFF)モジュール、深層セマンティック特徴を柔軟にマージする適応重畳(AWF)モジュールを含む。
そのため、BPIMは、注意機構とクロススケールな特徴融合戦略を用いて、小さな物体検出のための画像における境界情報、位置情報、スケール情報を統合することができる。
さらに、BPIMは、境界との適応重み融合によって文脈特徴の識別を改善するだけでなく、クロススケールな位置融合によって小さな物体知覚を高める。
VisDrone2021, DOTA1.0, WiderPersonのデータセットでは, BPIMがベースラインであるYolov5-P2よりも優れた性能を示した。
関連論文リスト
- MGDFIS: Multi-scale Global-detail Feature Integration Strategy for Small Object Detection [12.838872442435527]
UAV画像の小さな物体検出は、探索・救助、交通監視、環境監視といった用途に不可欠である。
既存のマルチスケール融合法は、計算負荷を増し、詳細をぼかすのに役立つ。
本稿では,グローバルコンテキストと局所的な詳細を密結合して検出性能を向上させる統合融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T02:54:25Z) - PointOBB-v3: Expanding Performance Boundaries of Single Point-Supervised Oriented Object Detection [65.84604846389624]
我々は,より強力な単一点制御OODフレームワークであるPointOBB-v3を提案する。
追加のプリミティブなしで擬似回転ボックスを生成し、エンドツーエンドのパラダイムをサポートする。
本手法は従来の最先端手法と比較して3.56%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-23T18:18:15Z) - B2Net: Camouflaged Object Detection via Boundary Aware and Boundary Fusion [10.899493419708651]
得られた境界の精度を高めるために,B2Netという新しいネットワークを提案する。
我々は、より差別的な特徴表現を統合することを目的として、Residual Feature Enhanced Module (RFEM)を提案する。
その後、境界認識モジュール(BAM)を導入し、エッジキューを2回探索する。
最後に,さまざまなスケールの情報をトップダウンで統合するCBFMを設計する。
論文 参考訳(メタデータ) (2024-12-31T13:06:06Z) - LR-FPN: Enhancing Remote Sensing Object Detection with Location Refined Feature Pyramid Network [2.028685490378346]
浅い位置情報の抽出を促進するために,新しい位置改良型特徴ピラミッドネットワーク(LR-FPN)を提案する。
2つの大規模なリモートセンシングデータセットの実験により、提案したLR-FPNは最先端のオブジェクト検出手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-04-02T03:36:07Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - SSPNet: Scale Selection Pyramid Network for Tiny Person Detection from
UAV Images [10.439155825343517]
小型人検出のためのSSPNet(Scale Selection Pyramid Network)を提案する。
SSPNetは、コンテキスト注意モジュール(CAM)、スケール拡張モジュール(SEM)、スケール選択モジュール(SSM)の3つのコンポーネントから構成される。
我々の方法は、他の最先端検出器(SOTA)よりも優れている。
論文 参考訳(メタデータ) (2021-07-04T05:46:41Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。