論文の概要: Scale-Aware Relay and Scale-Adaptive Loss for Tiny Object Detection in Aerial Images
- arxiv url: http://arxiv.org/abs/2511.09891v1
- Date: Fri, 14 Nov 2025 01:16:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.552482
- Title: Scale-Aware Relay and Scale-Adaptive Loss for Tiny Object Detection in Aerial Images
- Title(参考訳): 空中画像におけるTiny物体検出のためのスケール・アウェア・リレーとスケール・アダプティブ・ロス
- Authors: Jinfu Li, Yuqi Huang, Hong Song, Ting Wang, Jianghan Xia, Yucong Lin, Jingfan Fan, Jian Yang,
- Abstract要約: 本稿では,SARL(Scale-Aware Relay Layer)とSAL(Scale-Adaptive Loss)を提案する。
SARLは、各層の有意義な特徴を徐々に豊かにするために、空間チャネルを横断的に注意する。
SALは、バニラIoUベースの損失を補足して、より大きなオブジェクトに低重量を動的に割り当てる。
- 参考スコア(独自算出の注目度): 22.70176024890317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, despite the remarkable advancements in object detection, modern detectors still struggle to detect tiny objects in aerial images. One key reason is that tiny objects carry limited features that are inevitably degraded or lost during long-distance network propagation. Another is that smaller objects receive disproportionately greater regression penalties than larger ones during training. To tackle these issues, we propose a Scale-Aware Relay Layer (SARL) and a Scale-Adaptive Loss (SAL) for tiny object detection, both of which are seamlessly compatible with the top-performing frameworks. Specifically, SARL employs a cross-scale spatial-channel attention to progressively enrich the meaningful features of each layer and strengthen the cross-layer feature sharing. SAL reshapes the vanilla IoU-based losses so as to dynamically assign lower weights to larger objects. This loss is able to focus training on tiny objects while reducing the influence on large objects. Extensive experiments are conducted on three benchmarks (\textit{i.e.,} AI-TOD, DOTA-v2.0 and VisDrone2019), and the results demonstrate that the proposed method boosts the generalization ability by 5.5\% Average Precision (AP) when embedded in YOLOv5 (anchor-based) and YOLOx (anchor-free) baselines. Moreover, it also promotes the robust performance with 29.0\% AP on the real-world noisy dataset (\textit{i.e.,} AI-TOD-v2.0).
- Abstract(参考訳): 近年、物体検出の顕著な進歩にもかかわらず、現代の検出器は空中画像の小さな物体を検出するのに苦戦している。
一つの重要な理由は、小さなオブジェクトが、長距離ネットワークの伝搬中に必然的に劣化または失われる限られた特徴を持っていることである。
もう一つは、小さな物体はトレーニング中により大きな物体よりも不均等に大きな回帰罰を受けることである。
これらの問題に対処するため,SARL(Scale-Aware Relay Layer)とSAL(Scale-Adaptive Loss)を提案する。
具体的には、SARLは、各層の有意義な特徴を徐々に豊かにし、層間特徴共有を強化するために、クロススケールな空間チャネルアテンションを用いる。
SAL はバニラ IoU ベースの損失を補足し、より大きなオブジェクトに低重量を動的に割り当てる。
この損失は、大きなオブジェクトへの影響を減らしながら、小さなオブジェクトにトレーニングを集中させることができる。
AI-TOD, DOTA-v2.0, VisDrone2019の3つのベンチマークで大規模な実験を行い, YOLOv5(アンカーベース)およびYOLOx(アンカーフリー)ベースラインに埋め込まれた場合, 提案手法により平均精度(AP)が5.5\%向上することが実証された。
さらに、実世界のノイズデータセット(\textit{i.e.} AI-TOD-v2.0)上で、29.0\% APで堅牢なパフォーマンスを促進する。
関連論文リスト
- HierLight-YOLO: A Hierarchical and Lightweight Object Detection Network for UAV Photography [0.0]
本稿では,小型物体のリアルタイム検出を支援する階層的特徴融合と軽量モデルであるHierLight-YOLOを提案する。
本稿では階層型拡張経路集約ネットワーク(HEPAN)を提案する。
小さい物体検出ヘッドは、空間分解能をさらに高め、小さな物体(4ピクセル)検出に対処するために特徴融合を行うように設計されている。
論文 参考訳(メタデータ) (2025-09-26T13:59:02Z) - DASSF: Dynamic-Attention Scale-Sequence Fusion for Aerial Object Detection [6.635903943457569]
元のYOLOアルゴリズムは、異なるスケールのターゲットを認識する能力の弱いため、全体的な検出精度が低い。
本稿では,空中画像のターゲット検出のための動的アテンションスケール系列融合アルゴリズム(DASSF)を提案する。
DASSF法をYOLOv8nと比較すると,平均平均精度(mAP)は9.2%,2.4%増加した。
論文 参考訳(メタデータ) (2024-06-18T05:26:44Z) - Improving the Detection of Small Oriented Objects in Aerial Images [0.0]
本研究では,オブジェクト指向物体検出モデルの分類・回帰タスクを強化することにより,空中画像中の小型物体を高精度に検出する手法を提案する。
ガイド・アテンション・ロス(GALoss)とボックス・ポイント・ロス(BPLoss)の2つの損失からなるアテンション・ポイント・ネットワークを設計した。
実験結果から,小型オブジェクトインスタンスを用いた標準指向型空中データセットにおける注意点ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2024-01-12T11:00:07Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Rethinking Intersection Over Union for Small Object Detection in
Few-Shot Regime [2.292003207440126]
Few-Shot Object Detection (FSOD)では、小さな物体を検出することは極めて困難である。
我々は,新しいボックス類似度尺度であるSIoU(Scale-Adaptive Intersection over Union)を提案する。
SIoUはオブジェクトのサイズによって変化し、小さなオブジェクトシフトでより寛大になる。
論文 参考訳(メタデータ) (2023-07-17T07:26:58Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - SCRDet++: Detecting Small, Cluttered and Rotated Objects via
Instance-Level Feature Denoising and Rotation Loss Smoothing [131.04304632759033]
小さくて散らばった物体は実世界では一般的であり、検出は困難である。
本稿では,まず,物体検出にデノナイズするアイデアを革新的に紹介する。
機能マップ上のインスタンスレベルの記述は、小さくて散らばったオブジェクトの検出を強化するために行われる。
論文 参考訳(メタデータ) (2020-04-28T06:03:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。