論文の概要: Visible and Clear: Finding Tiny Objects in Difference Map
- arxiv url: http://arxiv.org/abs/2405.11276v3
- Date: Mon, 30 Sep 2024 11:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:59:39.650955
- Title: Visible and Clear: Finding Tiny Objects in Difference Map
- Title(参考訳): Visible and Clear: 異なるマップで小さなオブジェクトを見つける
- Authors: Bing Cao, Haiyu Yao, Pengfei Zhu, Qinghua Hu,
- Abstract要約: 本稿では,検出モデルに自己再構成機構を導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
さらに、小さな特徴表現をより明確にするために、差分マップガイド機能拡張(DGFE)モジュールを開発する。
- 参考スコア(独自算出の注目度): 50.54061010335082
- License:
- Abstract: Tiny object detection is one of the key challenges in the field of object detection. The performance of most generic detectors dramatically decreases in tiny object detection tasks. The main challenge lies in extracting effective features of tiny objects. Existing methods usually perform generation-based feature enhancement, which is seriously affected by spurious textures and artifacts, making it difficult to make the tiny-object-specific features visible and clear for detection. To address this issue, we propose a self-reconstructed tiny object detection (SR-TOD) framework. We for the first time introduce a self-reconstruction mechanism in the detection model, and discover the strong correlation between it and the tiny objects. Specifically, we impose a reconstruction head in-between the neck of a detector, constructing a difference map of the reconstructed image and the input, which shows high sensitivity to tiny objects. This inspires us to enhance the weak representations of tiny objects under the guidance of the difference maps. Thus, improving the visibility of tiny objects for the detectors. Building on this, we further develop a Difference Map Guided Feature Enhancement (DGFE) module to make the tiny feature representation more clear. In addition, we further propose a new multi-instance anti-UAV dataset, which is called DroneSwarms dataset and contains a large number of tiny drones with the smallest average size to date. Extensive experiments on the DroneSwarms dataset and other datasets demonstrate the effectiveness of the proposed method. The code and dataset will be publicly available.
- Abstract(参考訳): 細い物体検出は、物体検出の分野における重要な課題の1つである。
ほとんどのジェネリック検出器の性能は、小さな物体検出タスクで劇的に低下する。
主な課題は、小さな物体の効果的な特徴を抽出することである。
既存の手法は通常、ジェネレーションベースの機能拡張を実行するが、これはスプリケートなテクスチャやアーティファクトの影響を深刻に受けており、小さなオブジェクト固有の特徴を目に見えるようにし、検出するのが困難である。
そこで本研究では,自己再構成型小型物体検出(SR-TOD)フレームワークを提案する。
検出モデルに自己再構成機構を初めて導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
このことは、差分写像の誘導の下で小さな物体の弱い表現を強化するきっかけとなる。
これにより、検出器用の小さな物体の視認性を向上させることができる。
これに基づいて、我々は、小さな特徴表現をより明確にするための差分マップガイド機能拡張(DGFE)モジュールをさらに開発する。
さらに,DroneSwarmsデータセットと呼ばれる新しいマルチインスタンス対UAVデータセットを提案する。
DroneSwarmsデータセットや他のデータセットに関する大規模な実験は、提案手法の有効性を実証している。
コードとデータセットが公開される。
関連論文リスト
- FADE: A Dataset for Detecting Falling Objects around Buildings in Video [75.48118923174712]
建物から落下する物体は、大きな衝撃力によって歩行者に重傷を負わせる可能性がある。
FADEには18のシーンから1,881本のビデオがあり、8つの落下物カテゴリー、4つの気象条件、4つのビデオ解像度がある。
動作情報を効果的に活用するFADE-Netと呼ばれる新しい物体検出手法を開発した。
論文 参考訳(メタデータ) (2024-08-11T11:43:56Z) - ESOD: Efficient Small Object Detection on High-Resolution Images [36.80623357577051]
小さなオブジェクトは通常、わずかに分散され、局所的にクラスタ化される。
画像の非対象背景領域において、大量の特徴抽出計算を無駄にする。
本稿では,検出器のバックボーンを再利用して,特徴レベルのオブジェクト探索とパッチスライシングを行う方法を提案する。
論文 参考訳(メタデータ) (2024-07-23T12:21:23Z) - Small Object Detection by DETR via Information Augmentation and Adaptive
Feature Fusion [4.9860018132769985]
RT-DETRモデルは、リアルタイムオブジェクト検出では良好に動作するが、小さなオブジェクト検出精度では不十分である。
異なるレベルから各特徴マップに学習可能なパラメータを割り当てる適応的特徴融合アルゴリズムを提案する。
これにより、異なるスケールでオブジェクトの特徴をキャプチャするモデルの能力が向上し、小さなオブジェクトを検出する精度が向上する。
論文 参考訳(メタデータ) (2024-01-16T00:01:23Z) - Improving the Detection of Small Oriented Objects in Aerial Images [0.0]
本研究では,オブジェクト指向物体検出モデルの分類・回帰タスクを強化することにより,空中画像中の小型物体を高精度に検出する手法を提案する。
ガイド・アテンション・ロス(GALoss)とボックス・ポイント・ロス(BPLoss)の2つの損失からなるアテンション・ポイント・ネットワークを設計した。
実験結果から,小型オブジェクトインスタンスを用いた標準指向型空中データセットにおける注意点ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2024-01-12T11:00:07Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Rethinking the backbone architecture for tiny object detection [0.0]
既存の小さなオブジェクト検出方法は、標準的なディープニューラルネットワークをバックボーンアーキテクチャとして使用しています。
このようなバックボーンは、大きなオブジェクトの分類のために設計されたため、小さなオブジェクトを検出するには不適切であり、小さなターゲットを特定するための空間分解能を持っていない、と我々は主張する。
我々は、全体的な計算負荷を伴わずに、高解像度の機能を処理するためにより多くのリソースを割り当てる「ボトムヘビー」バージョンのバックボーンを設計する。
論文 参考訳(メタデータ) (2023-03-20T16:50:29Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - MultiResolution Attention Extractor for Small Object Detection [40.74232149130456]
小さい物体は解像度が低く、小さいため検出が難しい。
人間の視覚の「注意」メカニズムにインスパイアされ、我々は2つの特徴抽出手法を利用して、小さな物体の最も有用な情報をマイニングする。
論文 参考訳(メタデータ) (2020-06-10T16:47:56Z) - NETNet: Neighbor Erasing and Transferring Network for Better Single Shot
Object Detection [170.30694322460045]
我々は、ピラミッドの特徴を再設定し、スケールアウェアな特徴を探索する新しいNeighbor Erasing and Transferring(NET)メカニズムを提案する。
NETNetと呼ばれるシングルショットネットワークは、スケールアウェアなオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2020-01-18T15:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。