論文の概要: Radar Guided Dynamic Visual Attention for Resource-Efficient RGB Object
Detection
- arxiv url: http://arxiv.org/abs/2206.01772v1
- Date: Fri, 3 Jun 2022 18:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 14:08:00.539262
- Title: Radar Guided Dynamic Visual Attention for Resource-Efficient RGB Object
Detection
- Title(参考訳): 資源効率の良いRGBオブジェクト検出のためのレーダ誘導動的ビジュアルアテンション
- Authors: Hemant Kumawat and Saibal Mukhopadhyay
- Abstract要約: 自動運転車の認識品質を向上させるために,RGB画像に対する新しいレーダー誘導空間アテンションを提案する。
提案手法は,RGBモードの物体検出装置では検出されない小型・長距離物体の知覚を改善する。
- 参考スコア(独自算出の注目度): 10.983063391496543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An autonomous system's perception engine must provide an accurate
understanding of the environment for it to make decisions. Deep learning based
object detection networks experience degradation in the performance and
robustness for small and far away objects due to a reduction in object's
feature map as we move to higher layers of the network. In this work, we
propose a novel radar-guided spatial attention for RGB images to improve the
perception quality of autonomous vehicles operating in a dynamic environment.
In particular, our method improves the perception of small and long range
objects, which are often not detected by the object detectors in RGB mode. The
proposed method consists of two RGB object detectors, namely the Primary
detector and a lightweight Secondary detector. The primary detector takes a
full RGB image and generates primary detections. Next, the radar proposal
framework creates regions of interest (ROIs) for object proposals by projecting
the radar point cloud onto the 2D RGB image. These ROIs are cropped and fed to
the secondary detector to generate secondary detections which are then fused
with the primary detections via non-maximum suppression. This method helps in
recovering the small objects by preserving the object's spatial features
through an increase in their receptive field. We evaluate our fusion method on
the challenging nuScenes dataset and show that our fusion method with SSD-lite
as primary and secondary detector improves the baseline primary yolov3
detector's recall by 14% while requiring three times fewer computational
resources.
- Abstract(参考訳): 自律システムの知覚エンジンは、意思決定を行うための環境の正確な理解を提供する必要がある。
ディープラーニングに基づくオブジェクト検出ネットワークは、ネットワークの上位層に移行すると、オブジェクトの特徴マップが減少するため、小・遠方のオブジェクトの性能と堅牢性が低下する。
本研究では,RGB画像に対するレーダ誘導型空間アテンションを新たに提案し,ダイナミック環境で動作する自動運転車の知覚品質を向上させることを目的とする。
特に,本手法は,RGBモードの物体検出器では検出されない小・長距離物体の知覚を向上させる。
提案手法は2つのRGBオブジェクト検出器,すなわちプライマリ検出器と軽量二次検出器から構成される。
主検出器は完全なRGB画像を取得し、一次検出を生成する。
次に、レーダ提案フレームワークは、レーダポイントクラウドを2D RGBイメージに投影することにより、オブジェクト提案の関心領域(ROI)を作成する。
これらのroisは切り抜かれ、二次検出器に供給され、二次検出を生成し、非最大抑制によって一次検出と融合する。
本手法は, 物体の空間的特徴を受容場の増加を通じて保持することにより, 小物体の回収を支援する。
また,ssd-liteを1次および2次検出器とする融合手法は,計算資源を3倍削減しつつ,基礎となる1次ヨーロフ3検出器のリコールを14%向上させることを示した。
関連論文リスト
- Removal then Selection: A Coarse-to-Fine Fusion Perspective for RGB-Infrared Object Detection [20.12812979315803]
可視光(RGB)と熱赤外(IR)画像の両方を利用した物体検出が注目されている。
既存の多くのマルチモーダルオブジェクト検出手法は、RGBとIR画像をディープニューラルネットワークに直接入力する。
両モダリティから特徴を浄化・融合する新しい粗大な視点を提案する。
論文 参考訳(メタデータ) (2024-01-19T14:49:42Z) - Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - Multi-Task Cross-Modality Attention-Fusion for 2D Object Detection [6.388430091498446]
レーダとカメラデータの整合性を向上する2つの新しいレーダ前処理手法を提案する。
また,オブジェクト検出のためのMulti-Task Cross-Modality Attention-Fusion Network (MCAF-Net)を導入する。
我々のアプローチは、nuScenesデータセットにおける現在の最先端のレーダーカメラフュージョンベースのオブジェクト検出器よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T09:26:13Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - SCRDet++: Detecting Small, Cluttered and Rotated Objects via
Instance-Level Feature Denoising and Rotation Loss Smoothing [131.04304632759033]
小さくて散らばった物体は実世界では一般的であり、検出は困難である。
本稿では,まず,物体検出にデノナイズするアイデアを革新的に紹介する。
機能マップ上のインスタンスレベルの記述は、小さくて散らばったオブジェクトの検出を強化するために行われる。
論文 参考訳(メタデータ) (2020-04-28T06:03:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。