論文の概要: RMMDet: Road-Side Multitype and Multigroup Sensor Detection System for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2303.05203v3
- Date: Sat, 10 Jun 2023 01:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 01:03:59.359020
- Title: RMMDet: Road-Side Multitype and Multigroup Sensor Detection System for
Autonomous Driving
- Title(参考訳): RMMDet:自動運転のための道路側マルチタイプ・マルチグループセンサ検出システム
- Authors: Xiuyu Yang, Zhuangyan Zhang, Haikuo Du, Sui Yang, Fengping Sun, Yanbo
Liu, Ling Pei, Wenchao Xu, Weiqi Sun, Zhengyu Li
- Abstract要約: RMMDetは、自動運転のための道路側マルチタイプおよびマルチグループセンサー検出システムである。
ROSベースの仮想環境を用いて実環境をシミュレートする。
局所的なデータセットと実際のサンドテーブルフィールドを作成し、様々な実験を行う。
- 参考スコア(独自算出の注目度): 3.8917150802484994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving has now made great strides thanks to artificial
intelligence, and numerous advanced methods have been proposed for vehicle end
target detection, including single sensor or multi sensor detection methods.
However, the complexity and diversity of real traffic situations necessitate an
examination of how to use these methods in real road conditions. In this paper,
we propose RMMDet, a road-side multitype and multigroup sensor detection system
for autonomous driving. We use a ROS-based virtual environment to simulate
real-world conditions, in particular the physical and functional construction
of the sensors. Then we implement muti-type sensor detection and multi-group
sensors fusion in this environment, including camera-radar and camera-lidar
detection based on result-level fusion. We produce local datasets and real sand
table field, and conduct various experiments. Furthermore, we link a
multi-agent collaborative scheduling system to the fusion detection system.
Hence, the whole roadside detection system is formed by roadside perception,
fusion detection, and scheduling planning. Through the experiments, it can be
seen that RMMDet system we built plays an important role in vehicle-road
collaboration and its optimization. The code and supplementary materials can be
found at: https://github.com/OrangeSodahub/RMMDet
- Abstract(参考訳): 人工知能のおかげで、自律運転は大きな進歩を遂げ、単一のセンサーやマルチセンサー検出方法を含む、車両のエンドターゲット検出のための多くの高度な手法が提案されている。
しかし、実際の交通状況の複雑さと多様性は、これらの手法を実際の道路状況でどのように利用するかを検討する必要がある。
本稿では、自動運転のための道路側マルチタイプ・マルチグループセンサ検出システムであるrmmdetを提案する。
実環境,特にセンサの物理的および機能的構成をシミュレーションするために,ROSベースの仮想環境を用いる。
そして、この環境でミューティ型センサ検出とマルチグループセンサー融合を実装し、結果レベル融合に基づくカメラレーダーとカメラライダー検出を行う。
ローカルデータセットと実際のサンドテーブルフィールドを作成し、様々な実験を行います。
さらに,マルチエージェント協調スケジューリングシステムと融合検出システムとをリンクする。
これにより、路側知覚、融合検出、スケジューリング計画により路側検出システム全体が形成される。
実験の結果, RMMDetシステムは自動車と道路の協調と最適化において重要な役割を担っていることがわかった。
コードと補足資料は、https://github.com/orangesodahub/rmmdetにある。
関連論文リスト
- DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Multi-Modal 3D Object Detection in Autonomous Driving: a Survey [10.913958563906931]
自動運転車には、堅牢で正確な環境認識を行うための一連のセンサーが備わっている。
センサーの数や種類が増加し続けており、それらを組み合わせることで知覚を向上させることが自然のトレンドになりつつある。
この調査では、複数のセンサデータソースを利用する、最近の核融合に基づく3D検出ディープラーニングモデルについてレビューする。
論文 参考訳(メタデータ) (2021-06-24T02:52:12Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。