論文の概要: DMAVA: Distributed Multi-Autonomous Vehicle Architecture Using Autoware
- arxiv url: http://arxiv.org/abs/2601.16336v1
- Date: Thu, 22 Jan 2026 21:45:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.41738
- Title: DMAVA: Distributed Multi-Autonomous Vehicle Architecture Using Autoware
- Title(参考訳): DMAVA: オートウェアを用いた分散マルチ自律車アーキテクチャ
- Authors: Zubair Islam, Mohamed El-Darieby,
- Abstract要約: 本稿では,複数の物理ホストをまたいだリアルタイム自律運転シミュレーションを実現する分散マルチAVアーキテクチャ(DMAVA)を提案する。
提案システムは、ROS 2 Humble、Autoware Universe、AWSIM Labs、Zenohを統合し、共有Unityベースの環境で複数のAutowareスタックの同時実行をサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulating and validating coordination among multiple autonomous vehicles (AVs) is a challenging task as most existing simulation architectures are limited to single-vehicle operation or rely on centralized control. This paper presents a Distributed Multi-AV Architecture (DMAVA) that enables synchronized, real-time autonomous driving simulation across multiple physical hosts. Each vehicle runs its own complete AV stack and operates independently from other AVs. The vehicles in the simulation maintain synchronized coordination through a low-latency data-centric communication layer. The proposed system integrates ROS 2 Humble, Autoware Universe, AWSIM Labs, and Zenoh to support concurrent execution of multiple Autoware stacks within a shared Unity-based environment. Experiments conducted on multiple-host configurations demonstrate stable localization, reliable inter-host communication, and fully synchronized closed-loop control. The DMAVA also serves as a foundation for Multi-Vehicle Autonomous Valet Parking, demonstrating its extensibility toward higher-level cooperative autonomy. Demo videos and source code are available at: https://github.com/zubxxr/distributed-multi-autonomous-vehicle-architecture.
- Abstract(参考訳): 複数の自動運転車(AV)間の協調のシミュレーションと検証は、既存のシミュレーションアーキテクチャが単一車両の運用に限られるか、集中制御に依存しているため、難しい作業である。
本稿では,複数の物理ホストをまたいだリアルタイム自律運転シミュレーションを実現する分散マルチAVアーキテクチャ(DMAVA)を提案する。
各車両は独自の完全なAVスタックを運用し、他のAVとは独立して運用する。
シミュレーション中の車両は、低遅延データ中心の通信層を介して同期調整を行う。
提案システムは、ROS 2 Humble、Autoware Universe、AWSIM Labs、Zenohを統合し、共有Unityベースの環境で複数のAutowareスタックの同時実行をサポートする。
複数のホスト構成で実施された実験は、安定したローカライゼーション、信頼性の高いホスト間通信、完全に同期されたクローズドループ制御を示す。
DMAVAはまた、より高度な協力的自治への拡張性を実証する多車種自治バレット駐車の基盤としても機能している。
デモビデオとソースコードは、https://github.com/zubxxr/distributed-multi-autonomous-vehicle-architecture.comで公開されている。
関連論文リスト
- DMV-AVP: Distributed Multi-Vehicle Autonomous Valet Parking using Autoware [0.0]
DMV-AVPシステムはAVPの分散シミュレーションである
提案システムは,協調型AVPシミュレーションをサポートし,将来の実世界のハードウェア・イン・ザ・ループバリデーションの基礎を確立する。
論文 参考訳(メタデータ) (2026-01-22T21:24:04Z) - Towards Intelligent Transportation with Pedestrians and Vehicles In-the-Loop: A Surveillance Video-Assisted Federated Digital Twin Framework [62.47416496137193]
本稿では,歩行者や車いすによるITSを支援するための監視ビデオ支援型デジタルツイン(SV-FDT)フレームワークを提案する。
i)複数のソースからトラフィック監視ビデオを収集するエンドレイヤ、(ii)セマンティックセグメンテーションに基づく視覚理解、ツインエージェントベースのインタラクションモデリング、およびローカルデジタルツインシステム(LDTS)をローカルで作成するエッジレイヤ、(iii)異なるリージョンにわたるLDTSを統合してグローバルDTモデルをリアルタイムで構築するクラウドレイヤの3層で構成されている。
論文 参考訳(メタデータ) (2025-03-06T07:36:06Z) - V2V-LLM: Vehicle-to-Vehicle Cooperative Autonomous Driving with Multi-Modal Large Language Models [31.537045261401666]
本稿では,多モード大規模言語モデルと協調自律運転を統合した新しい問題設定を提案する。
また,V2V-LLM(V2V-LLM)のベースライン手法を提案する。
実験結果から,提案するV2V-LLMは,協調運転における様々なタスクを遂行する上で,有望な統一モデルアーキテクチャとなる可能性が示唆された。
論文 参考訳(メタデータ) (2025-02-14T08:05:41Z) - WHALES: A Multi-Agent Scheduling Dataset for Enhanced Cooperation in Autonomous Driving [14.977628973132099]
WHALESは,通信対応エージェントスケジューリングとスケーラブルな協調認識のベンチマークのために設計された,最初の大規模V2Xデータセットである。
WHALESは、シーンごとに平均8.4の協調エージェントと、さまざまな交通シナリオにまたがる2100万の注釈付き3Dオブジェクトを備えている。
リアルタイム通信ボトルネックをエミュレートするために、詳細な通信メタデータを組み込んでおり、スケジューリング戦略の厳密な評価を可能にしている。
論文 参考訳(メタデータ) (2024-11-20T14:12:34Z) - M2DA: Multi-Modal Fusion Transformer Incorporating Driver Attention for Autonomous Driving [11.36165122994834]
自律運転にドライバ注意(M2DA)を組み込んだ多モード核融合トランスを提案する。
ドライバーの注意を取り入れることで、自動運転車に人間のようなシーン理解能力を付与し、重要な領域を正確に特定し、安全性を確保する。
論文 参考訳(メタデータ) (2024-03-19T08:54:52Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - UniM$^2$AE: Multi-modal Masked Autoencoders with Unified 3D Representation for 3D Perception in Autonomous Driving [47.590099762244535]
Masked Autoencoders (MAE)は、強力な表現の学習において重要な役割を担い、様々な3D知覚タスクにおいて優れた結果をもたらす。
この研究は、自律運転における統一された表現空間に適したマルチモーダルのMasked Autoencodersに展開する。
画像に固有のセマンティクスとLiDAR点雲の幾何学的複雑さを複雑に結合するため,UniM$2$AEを提案する。
論文 参考訳(メタデータ) (2023-08-21T02:13:40Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。