論文の概要: Multiagent Multitraversal Multimodal Self-Driving: Open MARS Dataset
- arxiv url: http://arxiv.org/abs/2406.09383v1
- Date: Thu, 13 Jun 2024 17:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 16:15:58.949172
- Title: Multiagent Multitraversal Multimodal Self-Driving: Open MARS Dataset
- Title(参考訳): マルチエージェントマルチモーダル自動運転:オープンMARSデータセット
- Authors: Yiming Li, Zhiheng Li, Nuo Chen, Moonjun Gong, Zonglin Lyu, Zehong Wang, Peili Jiang, Chen Feng,
- Abstract要約: 我々は、マルチエージェント、マルチトラベサール、マルチモーダル自動運転車研究を可能にするシナリオを統一するMARSデータセットを提案する。
MARSは、特定の地理的領域内で運転する自動運転車の群れによって収集される。
位置認識と神経再建の実験を行う。
- 参考スコア(独自算出の注目度): 35.52789865274631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale datasets have fueled recent advancements in AI-based autonomous vehicle research. However, these datasets are usually collected from a single vehicle's one-time pass of a certain location, lacking multiagent interactions or repeated traversals of the same place. Such information could lead to transformative enhancements in autonomous vehicles' perception, prediction, and planning capabilities. To bridge this gap, in collaboration with the self-driving company May Mobility, we present the MARS dataset which unifies scenarios that enable MultiAgent, multitraveRSal, and multimodal autonomous vehicle research. More specifically, MARS is collected with a fleet of autonomous vehicles driving within a certain geographical area. Each vehicle has its own route and different vehicles may appear at nearby locations. Each vehicle is equipped with a LiDAR and surround-view RGB cameras. We curate two subsets in MARS: one facilitates collaborative driving with multiple vehicles simultaneously present at the same location, and the other enables memory retrospection through asynchronous traversals of the same location by multiple vehicles. We conduct experiments in place recognition and neural reconstruction. More importantly, MARS introduces new research opportunities and challenges such as multitraversal 3D reconstruction, multiagent perception, and unsupervised object discovery. Our data and codes can be found at https://ai4ce.github.io/MARS/.
- Abstract(参考訳): 大規模なデータセットは、AIベースの自動運転車研究の最近の進歩を後押ししている。
しかしながら、これらのデータセットは通常、1台の車両の特定の位置の1回限りのパスから収集され、マルチエージェントの相互作用や同じ場所の繰り返しのトラバーサルが欠如している。
このような情報は、自動運転車の認識、予測、計画能力の変革的な強化につながる可能性がある。
このギャップを埋めるために、自動運転企業のMay Mobilityと共同で、MultiAgent、MultiTraveRSal、マルチモーダル自動運転車研究を可能にするシナリオを統合するMARSデータセットを提示します。
より具体的には、MARSは特定の地理的領域内で運転する自動運転車の群れで収集される。
各車両は独自のルートを持ち、各車両は近くの場所に出現することがある。
各車両にはLiDARとサラウンドビューのRGBカメラが搭載されている。
我々はMARSの2つのサブセットをキュレートする: 1つは同一位置に存在する複数の車両との協調運転を容易にし、もう1つは複数の車両による同一位置の非同期トラバースによるメモリリフレクションを可能にする。
位置認識と神経再建の実験を行う。
さらに、MARSは、マルチトラバーサル3D再構成、マルチエージェント認識、教師なし物体発見など、新たな研究機会と課題を導入している。
私たちのデータとコードはhttps://ai4ce.github.io/MARS/で確認できます。
関連論文リスト
- USTC FLICAR: A Sensors Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots [13.089952067224138]
本稿では,同時ローカライゼーションとマッピングの開発を目的としたUSTC FLICARデータセットを提案する。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張する。
Segment Anything Model (SAM)に基づいて,セマンティックFLICARデータセットを生成し,セマンティックセマンティックなセマンティックセマンティックアノテーションを提供する。
論文 参考訳(メタデータ) (2023-04-04T17:45:06Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - RMMDet: Road-Side Multitype and Multigroup Sensor Detection System for
Autonomous Driving [3.8917150802484994]
RMMDetは、自動運転のための道路側マルチタイプおよびマルチグループセンサー検出システムである。
ROSベースの仮想環境を用いて実環境をシミュレートする。
局所的なデータセットと実際のサンドテーブルフィールドを作成し、様々な実験を行う。
論文 参考訳(メタデータ) (2023-03-09T12:13:39Z) - Multi-target multi-camera vehicle tracking using transformer-based
camera link model and spatial-temporal information [29.34298951501007]
複数のカメラにまたがる車両の多目的マルチカメラ追跡は、スマートシティとインテリジェントな交通システムを開発する上で重要な応用である。
車両のMTMCTの主な課題は、同一車両のクラス内変動と異なる車両間のクラス間類似性である。
クロスカメラトラッキングを実現するために,空間的・時間的フィルタリングを用いたトランスフォーマーベースカメラリンクモデルを提案する。
論文 参考訳(メタデータ) (2023-01-18T22:27:08Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - MetaDrive: Composing Diverse Driving Scenarios for Generalizable
Reinforcement Learning [25.191567110519866]
我々は,強化学習アルゴリズムの研究のために,MetaDriveと呼ばれる新しい運転シミュレーションプラットフォームを開発した。
MetaDriveをベースとして、シングルエージェントとマルチエージェントの両方の設定でさまざまなRLタスクとベースラインを構築します。
論文 参考訳(メタデータ) (2021-09-26T18:34:55Z) - Collaborative Visual Navigation [69.20264563368762]
マルチエージェント視覚ナビゲーション(MAVN)のための大規模3次元データセットCollaVNを提案する。
様々なMAVN変種を探索し、この問題をより一般化する。
メモリ拡張通信フレームワークを提案する。各エージェントには、通信情報を永続的に保存するプライベートな外部メモリが備わっている。
論文 参考訳(メタデータ) (2021-07-02T15:48:16Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。