論文の概要: Density Map Guided Object Detection in Aerial Images
- arxiv url: http://arxiv.org/abs/2004.05520v1
- Date: Sun, 12 Apr 2020 01:32:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:21:58.993752
- Title: Density Map Guided Object Detection in Aerial Images
- Title(参考訳): 航空画像における密度マップ誘導物体検出
- Authors: Changlin Li and Taojiannan Yang and Sijie Zhu and Chen Chen and
Shanyue Guan
- Abstract要約: 高解像度空中画像における物体検出は,1)物体の大きさの大きな変化,2)物体の非一様分布のため,困難な課題である。
一般的な解決策は、大きな空中画像を小さな(一様)作物に分割し、それぞれの小さな作物に物体検出を適用することである。
本研究では、画像の物体密度マップが、地図の画素強度の点で分布する方法を示すという観察から着想を得た、密度マップガイドオブジェクト検出ネットワーク(DMNet)を提案する。
- 参考スコア(独自算出の注目度): 18.874882959220887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in high-resolution aerial images is a challenging task
because of 1) the large variation in object size, and 2) non-uniform
distribution of objects. A common solution is to divide the large aerial image
into small (uniform) crops and then apply object detection on each small crop.
In this paper, we investigate the image cropping strategy to address these
challenges. Specifically, we propose a Density-Map guided object detection
Network (DMNet), which is inspired from the observation that the object density
map of an image presents how objects distribute in terms of the pixel intensity
of the map. As pixel intensity varies, it is able to tell whether a region has
objects or not, which in turn provides guidance for cropping images
statistically. DMNet has three key components: a density map generation module,
an image cropping module and an object detector. DMNet generates a density map
and learns scale information based on density intensities to form cropping
regions. Extensive experiments show that DMNet achieves state-of-the-art
performance on two popular aerial image datasets, i.e. VisionDrone and UAVDT.
- Abstract(参考訳): 高解像度空中画像における物体検出は難しい課題である
1)対象物の大きさの大きな変動、及び
2) オブジェクトの非一様分布。
一般的な解決策は、大きな空中画像を小さな(一様)作物に分割し、各小作物に物体検出を適用することである。
本稿では,これらの課題に対処するためのイメージトリミング戦略について検討する。
具体的には、画像のオブジェクト密度マップが、地図のピクセル強度の観点からオブジェクトの分散方法を示すという観察から着想を得た、密度マップガイドオブジェクト検出ネットワーク(DMNet)を提案する。
画素強度が変化すると、ある領域に物体があるかどうかを判断し、統計的に画像のトリミングのガイダンスを提供する。
dmnetには、密度マップ生成モジュール、画像クロッピングモジュール、オブジェクト検出モジュールの3つの重要なコンポーネントがある。
DMNetは密度マップを生成し、密度強度に基づいてスケール情報を学び、収穫領域を形成する。
大規模な実験により、DMNetはVisionDroneとUAVDTという2つの一般的な空中画像データセットで最先端のパフォーマンスを達成することが示された。
関連論文リスト
- Toward General Object-level Mapping from Sparse Views with 3D Diffusion Priors [8.701106353658346]
一般的なオブジェクトレベルのマッピングは、細かな形状と多視点センサーの観察によるポーズで、シーン内のオブジェクトの3Dマップを構築する。
最近の研究は、スパースビューからオブジェクトレベルのマッピングに先立つ生成的な形状を導入しているが、それは単一カテゴリオブジェクトに限定されている。
本研究では,3次元拡散モデルを用いた汎用オブジェクトレベルマッピングシステム GOM を提案し,シーン内の全てのオブジェクトのテクスチャと幾何学の両方に対してニューラルレージアンス場 (NeRF) を出力する。
論文 参考訳(メタデータ) (2024-10-07T21:33:30Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Improved Counting and Localization from Density Maps for Object
Detection in 2D and 3D Microscopy Imaging [4.746727774540763]
密度マップから対象をカウント・ローカライズする別の方法を提案する。
その結果,2次元および3次元顕微鏡データにおけるオブジェクトのカウントとローカライゼーションの性能が向上した。
論文 参考訳(メタデータ) (2022-03-29T15:54:19Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z) - AMRNet: Chips Augmentation in Aerial Images Object Detection [7.817259518365044]
3つの拡張手法を導入して,スケールの変動,オブジェクトの分散性,クラスの不均衡といった問題を解消する。
我々のモデルは、VisDroneとUAVDTの2つの一般的な空中画像データセットに対して、最先端のパーフォマンスを実現する。
論文 参考訳(メタデータ) (2020-09-15T15:16:06Z) - Counting from Sky: A Large-scale Dataset for Remote Sensing Object
Counting and A Benchmark Method [52.182698295053264]
リモートセンシング画像から高密度物体をカウントすることに興味がある。自然界における物体のカウントと比較すると、このタスクは、大規模変動、複雑な乱れ背景、配向仲裁といった要因において困難である。
これらの課題に対処するために,我々はまず,4つの重要な地理的対象を含むリモートセンシング画像を用いた大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-08-28T03:47:49Z) - Counting dense objects in remote sensing images [52.182698295053264]
特定の画像から関心のあるオブジェクトの数を推定するのは、難しいが重要な作業である。
本稿では,リモートセンシング画像から高密度物体を数えることに興味がある。
これらの課題に対処するために,我々はまず,リモートセンシング画像に基づく大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-02-14T09:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。