論文の概要: Vision-RADAR fusion for Robotics BEV Detections: A Survey
- arxiv url: http://arxiv.org/abs/2302.06643v1
- Date: Mon, 13 Feb 2023 19:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 17:23:20.677886
- Title: Vision-RADAR fusion for Robotics BEV Detections: A Survey
- Title(参考訳): ロボットBEV検出のためのビジョンレーダ融合に関する調査
- Authors: Apoorv Singh
- Abstract要約: BEV物体検出システムにおけるビジョンレーダ融合法の検討
我々は、背景情報viz.、オブジェクト検出タスク、センサーの選択、センサー設定、ベンチマークデータセット、ロボット認識システムの評価指標を精査する。
我々は将来の研究を啓蒙するためのビジョンレーダ融合の可能性について提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the trending need of building autonomous robotic perception system,
sensor fusion has attracted a lot of attention amongst researchers and
engineers to make best use of cross-modality information. However, in order to
build a robotic platform at scale we need to emphasize on autonomous robot
platform bring-up cost as well. Cameras and radars, which inherently includes
complementary perception information, has potential for developing autonomous
robotic platform at scale. However, there is a limited work around radar fused
with Vision, compared to LiDAR fused with vision work. In this paper, we tackle
this gap with a survey on Vision-Radar fusion approaches for a BEV object
detection system. First we go through the background information viz., object
detection tasks, choice of sensors, sensor setup, benchmark datasets and
evaluation metrics for a robotic perception system. Later, we cover
per-modality (Camera and RADAR) data representation, then we go into detail
about sensor fusion techniques based on sub-groups viz., early-fusion,
deep-fusion, and late-fusion to easily understand the pros and cons of each
method. Finally, we propose possible future trends for vision-radar fusion to
enlighten future research. Regularly updated summary can be found at:
https://github.com/ApoorvRoboticist/Vision-RADAR-Fusion-BEV-Survey
- Abstract(参考訳): 自律型ロボット認識システムを構築する必要性が高まっているため、センサー融合は研究者やエンジニアの間で注目を集め、クロスモダリティ情報を最大限に活用している。
しかし、大規模にロボットプラットフォームを構築するためには、自律型ロボットプラットフォームの導入コストも重視する必要があります。
カメラとレーダーは本質的に補完的な知覚情報を含んでいるが、大規模に自律的なロボットプラットフォームを開発する可能性がある。
しかし、ビジョンワークで融合したlidarと比較して、視覚で融合したレーダーに関する作業は限られている。
本稿では,このギャップを,BEVオブジェクト検出システムにおけるビジョンレーダ融合手法の調査で解決する。
まず,ロボット知覚システムのための背景情報viz,物体検出タスク,センサの選択,センサ設定,ベンチマークデータセット,評価指標について検討する。
その後、モーダリティ(Camera と RADAR)データ表現を網羅し、サブグループviz.、アーリーフュージョン、ディープフュージョン、レイトフュージョンに基づくセンサフュージョン技術について詳細に検討し、各手法の長所と短所を容易に理解する。
最後に,将来の研究を啓蒙するためのビジョンレーダ融合の可能性について提案する。
定期的に更新された概要は、https://github.com/ApoorvRoboticist/Vision-RADAR-Fusion-BEV-Surveyで見ることができる。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - NeRF in Robotics: A Survey [95.11502610414803]
近年の神経暗黙表現の出現は、コンピュータビジョンとロボティクス分野に急進的な革新をもたらした。
NeRFは、単純化された数学的モデル、コンパクトな環境記憶、連続的なシーン表現などの大きな表現上の利点から、この傾向を引き起こしている。
論文 参考訳(メタデータ) (2024-05-02T14:38:18Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Radar-Camera Fusion for Object Detection and Semantic Segmentation in
Autonomous Driving: A Comprehensive Review [7.835577409160127]
本稿では,物体検出とセマンティックセグメンテーションに関連する知覚タスクについて概説する。
レビューでは,「なぜフューズするか」,「何をフューズすべきか」,「どこでフューズするか」,「どのようにフューズするか」などの質問に対処する。
論文 参考訳(メタデータ) (2023-04-20T15:48:50Z) - Transformer-Based Sensor Fusion for Autonomous Driving: A Survey [0.0]
トランスフォーマーベースの検出ヘッドとCNNベースの特徴エンコーダは、センサデータから特徴を抽出する。
Vision Transformer (ViT) の基本を手短に見て、読者が簡単に論文をフォローできるようにします。
結論として,センサフュージョンの傾向を概説し,今後の研究を推し進める。
論文 参考訳(メタデータ) (2023-02-22T16:28:20Z) - MmWave Radar and Vision Fusion based Object Detection for Autonomous
Driving: A Survey [15.316597644398188]
ミリ波レーダーと視覚融合は、正確な障害物検出のための主流のソリューションである。
本稿では,mmWaveレーダと視覚融合による障害物検出手法に関する詳細な調査を行う。
論文 参考訳(メタデータ) (2021-08-06T08:38:42Z) - Multi-Modal 3D Object Detection in Autonomous Driving: a Survey [10.913958563906931]
自動運転車には、堅牢で正確な環境認識を行うための一連のセンサーが備わっている。
センサーの数や種類が増加し続けており、それらを組み合わせることで知覚を向上させることが自然のトレンドになりつつある。
この調査では、複数のセンサデータソースを利用する、最近の核融合に基づく3D検出ディープラーニングモデルについてレビューする。
論文 参考訳(メタデータ) (2021-06-24T02:52:12Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。