論文の概要: A DeNoising FPN With Transformer R-CNN for Tiny Object Detection
- arxiv url: http://arxiv.org/abs/2406.05755v2
- Date: Tue, 11 Jun 2024 07:50:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 10:07:31.155833
- Title: A DeNoising FPN With Transformer R-CNN for Tiny Object Detection
- Title(参考訳): タイニー物体検出のための変圧器R-CNNを用いたFPNのデノベート
- Authors: Hou-I Liu, Yu-Wen Tseng, Kai-Cheng Chang, Pin-Jyun Wang, Hong-Han Shuai, Wen-Huang Cheng,
- Abstract要約: そこで本稿では,Trans R-CNN (DNTR) を用いたFPNのデノベーション手法を提案する。
DNTRは、簡単なプラグイン設計、DeNoising FPN (DN-FPN)、効果的なTransformerベースの検出器であるTrans R-CNNで構成されている。
我々は、古いR-CNN検出器を新しいTrans R-CNN検出器に置き換え、自己注意を持つ小さな物体の表現に集中する。
- 参考スコア(独自算出の注目度): 25.892598910922004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite notable advancements in the field of computer vision, the precise detection of tiny objects continues to pose a significant challenge, largely owing to the minuscule pixel representation allocated to these objects in imagery data. This challenge resonates profoundly in the domain of geoscience and remote sensing, where high-fidelity detection of tiny objects can facilitate a myriad of applications ranging from urban planning to environmental monitoring. In this paper, we propose a new framework, namely, DeNoising FPN with Trans R-CNN (DNTR), to improve the performance of tiny object detection. DNTR consists of an easy plug-in design, DeNoising FPN (DN-FPN), and an effective Transformer-based detector, Trans R-CNN. Specifically, feature fusion in the feature pyramid network is important for detecting multiscale objects. However, noisy features may be produced during the fusion process since there is no regularization between the features of different scales. Therefore, we introduce a DN-FPN module that utilizes contrastive learning to suppress noise in each level's features in the top-down path of FPN. Second, based on the two-stage framework, we replace the obsolete R-CNN detector with a novel Trans R-CNN detector to focus on the representation of tiny objects with self-attention. Experimental results manifest that our DNTR outperforms the baselines by at least 17.4% in terms of APvt on the AI-TOD dataset and 9.6% in terms of AP on the VisDrone dataset, respectively. Our code will be available at https://github.com/hoiliu-0801/DNTR.
- Abstract(参考訳): コンピュータビジョンの分野における顕著な進歩にもかかわらず、小さな物体の正確な検出は、画像データの中でこれらの物体に割り当てられた極小ピクセルの表現のために、大きな課題を呈し続けている。
この課題は、地球科学とリモートセンシングの分野において深く反響し、小さな物体の高忠実度検出は、都市計画から環境監視まで、無数の応用を促進する。
本稿では,小型物体検出の性能向上のために,Trans R-CNN (DNTR) を用いたデノイングFPNを提案する。
DNTRは、簡単なプラグイン設計、DeNoising FPN (DN-FPN)、効果的なTransformerベースの検出器であるTrans R-CNNで構成されている。
具体的には,マルチスケールオブジェクトの検出において,特徴ピラミッドネットワークにおける特徴融合が重要である。
しかし、異なるスケールの特徴の間に規則化がないため、核融合プロセス中にノイズが生じる可能性がある。
そこで本稿では,FPNの上位ダウンパスにおける各レベルの特徴の雑音を抑制するために,コントラスト学習を利用するDN-FPNモジュールを提案する。
第二に、この2段階の枠組みに基づいて、老朽化したR-CNN検出器を新しいトランスR-CNN検出器に置き換え、自己注意を伴う小さな物体の表現に焦点を当てる。
実験結果から,我々のDNTRはAI-TODデータセットのAPvtでは少なくとも17.4%,VisDroneデータセットのAPでは9.6%,ベースラインでは少なくとも17.4%向上していることがわかった。
私たちのコードはhttps://github.com/hoiliu-0801/DNTRで公開されます。
関連論文リスト
- Renormalized Connection for Scale-preferred Object Detection in Satellite Imagery [51.83786195178233]
我々は、効率的な特徴抽出の観点から再正規化群理論を実装するために、知識発見ネットワーク(KDN)を設計する。
KDN上の再正規化接続(RC)は、マルチスケール特徴の「相乗的焦点」を可能にする。
RCはFPNベースの検出器のマルチレベル特徴の分割・対数機構を幅広いスケールで予測されたタスクに拡張する。
論文 参考訳(メタデータ) (2024-09-09T13:56:22Z) - SFOD: Spiking Fusion Object Detector [10.888008544975662]
Spiking Fusion Object Detector (SFOD)は、SNNベースのオブジェクト検出のためのシンプルで効率的なアプローチである。
我々は、イベントカメラに適用されたSNNにおいて、異なるスケールのフィーチャーマップを初めて融合させる、スパイキングフュージョンモジュールを設計する。
我々は、NCARデータセット上で93.7%の精度を達成し、SNNに基づいて最先端の分類結果を確立する。
論文 参考訳(メタデータ) (2024-03-22T13:24:50Z) - DANet: Enhancing Small Object Detection through an Efficient Deformable
Attention Network [0.0]
我々は,より高速なR-CNNと最先端の手法を併用した包括的戦略を提案する。
より高速なR-CNNとFeature Pyramid Networkを組み合わせることで、製造環境に固有のマルチスケール機能を扱うことができる。
変形可能なネット(Deformable Net)は、欠陥の幾何学的バリエーションを歪曲し、従って、極小および複雑な特徴を検出できる精度をもたらす。
論文 参考訳(メタデータ) (2023-10-09T14:54:37Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - LO-Det: Lightweight Oriented Object Detection in Remote Sensing Images [11.41884406231953]
本稿では,有効軽量指向型物体検出器(LO-Det)を提案する。
特に、チャネル分離集約(CSA)構造は、積み重ねられた分離可能な畳み込みの複雑さを単純化するために設計されている。
提案するLO-Detは、オブジェクト指向物体を検出するための競合精度で、組み込みデバイスでも非常に高速に動作可能である。
論文 参考訳(メタデータ) (2022-09-16T04:28:01Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - Oriented Object Detection with Transformer [51.634913687632604]
我々は,エンドツーエンドネットワークに基づくTRansformer(bf O2DETR$)によるオブジェクト指向オブジェクト検出を実装した。
注意機構を奥行き分離可能な畳み込みに置き換えることで,トランスフォーマーの簡易かつ高効率なエンコーダを設計する。
私たちの$rm O2DETR$は、オブジェクト指向オブジェクト検出の分野における別の新しいベンチマークになり、より高速なR-CNNとRetinaNetに対して最大3.85mAPの改善が達成されます。
論文 参考訳(メタデータ) (2021-06-06T14:57:17Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - SCRDet++: Detecting Small, Cluttered and Rotated Objects via
Instance-Level Feature Denoising and Rotation Loss Smoothing [131.04304632759033]
小さくて散らばった物体は実世界では一般的であり、検出は困難である。
本稿では,まず,物体検出にデノナイズするアイデアを革新的に紹介する。
機能マップ上のインスタンスレベルの記述は、小さくて散らばったオブジェクトの検出を強化するために行われる。
論文 参考訳(メタデータ) (2020-04-28T06:03:54Z) - Broad Area Search and Detection of Surface-to-Air Missile Sites Using
Spatial Fusion of Component Object Detections from Deep Neural Networks [7.24548168665473]
複数またはコンポーネントオブジェクトのディープニューラルネットワーク(DNN)検出は、より大きな複雑な機能の検索、検出、検索(ランク付け)を改善するために空間的に融合することができる。
本手法は中国における9万km2の地表面対空ミサイル(SAM)の広い地域探索と検出に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-23T22:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。