論文の概要: Fewer is More: Efficient Object Detection in Large Aerial Images
- arxiv url: http://arxiv.org/abs/2212.13136v1
- Date: Mon, 26 Dec 2022 12:49:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 14:41:07.903390
- Title: Fewer is More: Efficient Object Detection in Large Aerial Images
- Title(参考訳): 大面積空中画像における効率的な物体検出法
- Authors: Xingxing Xie, Gong Cheng, Qingyang Li, Shicheng Miao, Ke Li, Junwei
Han
- Abstract要約: 本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
- 参考スコア(独自算出の注目度): 59.683235514193505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current mainstream object detection methods for large aerial images usually
divide large images into patches and then exhaustively detect the objects of
interest on all patches, no matter whether there exist objects or not. This
paradigm, although effective, is inefficient because the detectors have to go
through all patches, severely hindering the inference speed. This paper
presents an Objectness Activation Network (OAN) to help detectors focus on
fewer patches but achieve more efficient inference and more accurate results,
enabling a simple and effective solution to object detection in large images.
In brief, OAN is a light fully-convolutional network for judging whether each
patch contains objects or not, which can be easily integrated into many object
detectors and jointly trained with them end-to-end. We extensively evaluate our
OAN with five advanced detectors. Using OAN, all five detectors acquire more
than 30.0% speed-up on three large-scale aerial image datasets, meanwhile with
consistent accuracy improvements. On extremely large Gaofen-2 images
(29200$\times$27620 pixels), our OAN improves the detection speed by 70.5%.
Moreover, we extend our OAN to driving-scene object detection and 4K video
object detection, boosting the detection speed by 112.1% and 75.0%,
respectively, without sacrificing the accuracy. Code is available at
https://github.com/Ranchosky/OAN.
- Abstract(参考訳): 現在主流となっている大型空中画像の物体検出方法は、通常、大きな画像をパッチに分割し、すべてのパッチで関心のある物体を徹底的に検出する。
このパラダイムは効果的ではあるが、検出者は全てのパッチを通す必要があり、推論速度を著しく阻害するため、非効率である。
本稿では,検出者がより少ないパッチに焦点を合わせるのに役立ちながら,より効率的な推論とより正確な結果が得られるように,大規模画像におけるオブジェクト検出の簡易かつ効果的な解法を実現するために,Objectness Activation Network(OAN)を提案する。
簡単に言うと、OANは、各パッチにオブジェクトが含まれているかどうかを判断するための、軽量で完全な畳み込みネットワークである。
我々は5つの先進検出器でOANを広範囲に評価した。
OANを用いて、5つの検出器は3つの大規模空中画像データセットで30.0%以上のスピードアップを獲得し、精度は一貫して改善された。
非常に大きなGaofen-2画像(29200$\times$27620ピクセル)では、OANは検出速度を70.5%向上させる。
さらに,oanをドライブシーン物体検出と4k映像物体検出に拡張し,精度を犠牲にすることなく検出速度を112.1%,75.0%向上させた。
コードはhttps://github.com/ranchosky/oanで入手できる。
関連論文リスト
- ESOD: Efficient Small Object Detection on High-Resolution Images [36.80623357577051]
小さなオブジェクトは通常、わずかに分散され、局所的にクラスタ化される。
画像の非対象背景領域において、大量の特徴抽出計算を無駄にする。
本稿では,検出器のバックボーンを再利用して,特徴レベルのオブジェクト探索とパッチスライシングを行う方法を提案する。
論文 参考訳(メタデータ) (2024-07-23T12:21:23Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - Learned Two-Plane Perspective Prior based Image Resampling for Efficient
Object Detection [20.886999159134138]
リアルタイムの効率的な認識は、自律的なナビゲーションと都市規模のセンシングに不可欠である。
本研究では,3次元シーンの粗い形状を取り入れた学習可能な幾何学誘導先行手法を提案する。
提案手法は,4.1 $AP_S$ または +39% で検出率を向上し,また,4.3 $sAP_S$ または +63% で検出性能を向上する。
論文 参考訳(メタデータ) (2023-03-25T00:43:44Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection [2.578242050187029]
Slicing Aided Hyper Inference (SAHI) は、小型物体検出のための汎用スライシング支援推論と微調整パイプラインを提供する。
提案手法は Detectron2, MMDetection, YOLOv5 モデルと統合されている。
論文 参考訳(メタデータ) (2022-02-14T18:49:12Z) - Remote Sensing Image Super-resolution and Object Detection: Benchmark
and State of the Art [7.74389937337756]
本稿では、リモートセンシング画像の現在のデータセットとオブジェクト検出方法(深層学習に基づく)についてレビューする。
本稿では,大規模かつ一般公開なリモートセンシング超解像オブジェクト検出データセットを提案する。
また、画像超解像に基づく物体検出のベンチマークを行うために、Residual Feature aggregate (MCGR) と補助YOLOv5検出器を備えた新しいマルチクラスサイクル超解像対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-05T04:56:34Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - A Light-Weight Object Detection Framework with FPA Module for Optical
Remote Sensing Imagery [12.762588615997624]
本稿では,効率的なアンカーフリー物体検出器CenterFPANetを提案する。
速度を追求するために、軽量なバックボーンを使用し、非対称な革命ブロックを導入する。
この戦略は、検出速度を低下させることなく、リモートセンシング画像オブジェクト検出の精度を向上させることができる。
論文 参考訳(メタデータ) (2020-09-07T12:41:17Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - NETNet: Neighbor Erasing and Transferring Network for Better Single Shot
Object Detection [170.30694322460045]
我々は、ピラミッドの特徴を再設定し、スケールアウェアな特徴を探索する新しいNeighbor Erasing and Transferring(NET)メカニズムを提案する。
NETNetと呼ばれるシングルショットネットワークは、スケールアウェアなオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2020-01-18T15:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。