論文の概要: Learned Two-Plane Perspective Prior based Image Resampling for Efficient
Object Detection
- arxiv url: http://arxiv.org/abs/2303.14311v1
- Date: Sat, 25 Mar 2023 00:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 20:48:52.823376
- Title: Learned Two-Plane Perspective Prior based Image Resampling for Efficient
Object Detection
- Title(参考訳): 効率的な物体検出のための2面視点事前画像サンプリングの学習
- Authors: Anurag Ghosh, N. Dinesh Reddy, Christoph Mertz, Srinivasa G.
Narasimhan
- Abstract要約: リアルタイムの効率的な認識は、自律的なナビゲーションと都市規模のセンシングに不可欠である。
本研究では,3次元シーンの粗い形状を取り入れた学習可能な幾何学誘導先行手法を提案する。
提案手法は,4.1 $AP_S$ または +39% で検出率を向上し,また,4.3 $sAP_S$ または +63% で検出性能を向上する。
- 参考スコア(独自算出の注目度): 20.886999159134138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time efficient perception is critical for autonomous navigation and city
scale sensing. Orthogonal to architectural improvements, streaming perception
approaches have exploited adaptive sampling improving real-time detection
performance. In this work, we propose a learnable geometry-guided prior that
incorporates rough geometry of the 3D scene (a ground plane and a plane above)
to resample images for efficient object detection. This significantly improves
small and far-away object detection performance while also being more efficient
both in terms of latency and memory. For autonomous navigation, using the same
detector and scale, our approach improves detection rate by +4.1 $AP_{S}$ or
+39% and in real-time performance by +5.3 $sAP_{S}$ or +63% for small objects
over state-of-the-art (SOTA). For fixed traffic cameras, our approach detects
small objects at image scales other methods cannot. At the same scale, our
approach improves detection of small objects by 195% (+12.5 $AP_{S}$) over
naive-downsampling and 63% (+4.2 $AP_{S}$) over SOTA.
- Abstract(参考訳): 自律的ナビゲーションと都市スケールセンシングにはリアルタイムの効率的な認識が不可欠である。
アーキテクチャの改善に直交するストリーミング知覚アプローチは、リアルタイム検出性能を改善する適応サンプリングを活用している。
本研究では, 3次元シーン(地上面と上面)の粗い形状を取り入れ, 画像を再サンプリングして, 効率的な物体検出を行う, 学習可能な幾何学誘導手法を提案する。
これにより、小さくて遠方のオブジェクト検出性能が大幅に向上すると同時に、レイテンシとメモリの両面で効率が向上する。
自律ナビゲーションでは,同じ検出器とスケールを用いて,検出速度を+4.1$AP_{S}$または+39%,リアルタイム性能を+5.3$sAP_{S}$または+63%向上させる。
固定トラヒックカメラでは,他の手法ではできないような小さな物体を検知する。
同じ規模で、本手法は、ナイーブダウンサンプリングで195%(+12.5 $AP_{S}$)、SOTAで63%(+4.2 $AP_{S}$)の小さな物体の検出を改善する。
関連論文リスト
- SOD-YOLOv8 -- Enhancing YOLOv8 for Small Object Detection in Traffic Scenes [1.3812010983144802]
Small Object Detection YOLOv8 (SOD-YOLOv8) は、多数の小さなオブジェクトを含むシナリオ用に設計されている。
SOD-YOLOv8は小さなオブジェクト検出を大幅に改善し、様々なメトリクスで広く使われているモデルを上回っている。
ダイナミックな現実世界の交通シーンでは、SOD-YOLOv8は様々な状況で顕著な改善を示した。
論文 参考訳(メタデータ) (2024-08-08T23:05:25Z) - ESOD: Efficient Small Object Detection on High-Resolution Images [36.80623357577051]
小さなオブジェクトは通常、わずかに分散され、局所的にクラスタ化される。
画像の非対象背景領域において、大量の特徴抽出計算を無駄にする。
本稿では,検出器のバックボーンを再利用して,特徴レベルのオブジェクト探索とパッチスライシングを行う方法を提案する。
論文 参考訳(メタデータ) (2024-07-23T12:21:23Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - Tackling the Background Bias in Sparse Object Detection via Cropped
Windows [17.547911599819837]
モデル自体を変更することなく、リモートセンシングケースにおける検出能力を向上する簡単なタイリング手法を提案する。
この手順は3つの異なるデータセットで検証され、性能と速度において同様のアプローチより優れていた。
論文 参考訳(メタデータ) (2021-06-04T06:59:56Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。