論文の概要: UFPMP-Det: Toward Accurate and Efficient Object Detection on Drone
Imagery
- arxiv url: http://arxiv.org/abs/2112.10415v1
- Date: Mon, 20 Dec 2021 09:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 17:27:43.764233
- Title: UFPMP-Det: Toward Accurate and Efficient Object Detection on Drone
Imagery
- Title(参考訳): UFPMP-Det:ドローン画像における高精度かつ効率的な物体検出を目指して
- Authors: Yecheng Huang, Jiaxin Chen, Di Huang
- Abstract要約: 本稿では,UFPMP-Det(Unified Foreground Packing)を用いたマルチプロキシ検出ネットワーク(Multi-Proxy Detection Network)を提案する。
UFPMP-Detは、高解像度の入力画像をフォアグラウンド比の低いかなり多くのチップに分割して検出する一般的なソリューションとは異なる、非常に小さなスケールの多数のインスタンスを扱うように設計されている。
広く使われているVisDroneとUAVDTデータセットで実験が行われ、UFPMP-Detは新たな最先端スコアをはるかに高速で報告し、その利点を強調している。
- 参考スコア(独自算出の注目度): 26.27705791338182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel approach to object detection on drone imagery,
namely Multi-Proxy Detection Network with Unified Foreground Packing
(UFPMP-Det). To deal with the numerous instances of very small scales,
different from the common solution that divides the high-resolution input image
into quite a number of chips with low foreground ratios to perform detection on
them each, the Unified Foreground Packing (UFP) module is designed, where the
sub-regions given by a coarse detector are initially merged through clustering
to suppress background and the resulting ones are subsequently packed into a
mosaic for a single inference, thus significantly reducing overall time cost.
Furthermore, to address the more serious confusion between inter-class
similarities and intra-class variations of instances, which deteriorates
detection performance but is rarely discussed, the Multi-Proxy Detection
Network (MP-Det) is presented to model object distributions in a fine-grained
manner by employing multiple proxy learning, and the proxies are enforced to be
diverse by minimizing a Bag-of-Instance-Words (BoIW) guided optimal transport
loss. By such means, UFPMP-Det largely promotes both the detection accuracy and
efficiency. Extensive experiments are carried out on the widely used VisDrone
and UAVDT datasets, and UFPMP-Det reports new state-of-the-art scores at a much
higher speed, highlighting its advantages.
- Abstract(参考訳): 本稿では,UFPMP-Det(Unified Foreground Packing)を用いたマルチプロキシ検出ネットワーク(Multi-Proxy Detection Network)を提案する。
To deal with the numerous instances of very small scales, different from the common solution that divides the high-resolution input image into quite a number of chips with low foreground ratios to perform detection on them each, the Unified Foreground Packing (UFP) module is designed, where the sub-regions given by a coarse detector are initially merged through clustering to suppress background and the resulting ones are subsequently packed into a mosaic for a single inference, thus significantly reducing overall time cost.
さらに,検出性能が低下するインスタンスのクラス間類似性とクラス内変動のより深刻な混乱に対処するため,マルチプロキシ検出ネットワーク(MP-Det)を複数のプロキシ学習を用いてモデルオブジェクト分布に細粒度で提示し,Bag-of-Instance-Words(BoIW)誘導の最適輸送損失を最小化することにより,プロキシを多種多種多様に強制する。
これにより、ufpmp-detは検出精度と効率の両方を大いに促進する。
広く使われているVisDroneとUAVDTデータセットで大規模な実験が行われ、UFPMP-Detは新たな最先端のスコアをはるかに高速に報告し、その利点を強調している。
関連論文リスト
- Mixture-of-Noises Enhanced Forgery-Aware Predictor for Multi-Face Manipulation Detection and Localization [52.87635234206178]
本稿では,多面的操作検出と局所化に適したMoNFAPという新しいフレームワークを提案する。
このフレームワークには2つの新しいモジュールが含まれている: Forgery-aware Unified Predictor (FUP) Module と Mixture-of-Noises Module (MNM)。
論文 参考訳(メタデータ) (2024-08-05T08:35:59Z) - Multimodal Industrial Anomaly Detection by Crossmodal Feature Mapping [12.442574943138794]
本稿では、点雲とRGB画像を利用して異常をローカライズする産業用マルチモーダル異常検出(AD)タスクについて検討する。
我々は,新しい軽量かつ高速なフレームワークを導入し,特徴を1つのモダリティからもう1つのモダリティへのマップを,名目標本上で学習する。
論文 参考訳(メタデータ) (2023-12-07T18:41:21Z) - Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - Infrared Small Target Detection Using Double-Weighted Multi-Granularity
Patch Tensor Model With Tensor-Train Decomposition [6.517559383143804]
本稿では,DWMGIPT(Double-weighted multi-granularity infrared patch tensor)モデルを提案する。
提案アルゴリズムはノイズや異なるシーンに対して堅牢である。
論文 参考訳(メタデータ) (2023-10-09T02:17:31Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Adaptive Sparse Convolutional Networks with Global Context Enhancement
for Faster Object Detection on Drone Images [26.51970603200391]
本稿では,スパース畳み込みに基づく検出ヘッドの最適化について検討する。
これは、小さなオブジェクトのコンテキスト情報の不十分な統合に悩まされる。
本稿では,グローバルな文脈拡張型適応スパース畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T14:42:50Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。