論文の概要: DMV-AVP: Distributed Multi-Vehicle Autonomous Valet Parking using Autoware
- arxiv url: http://arxiv.org/abs/2601.16327v1
- Date: Thu, 22 Jan 2026 21:24:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.410691
- Title: DMV-AVP: Distributed Multi-Vehicle Autonomous Valet Parking using Autoware
- Title(参考訳): DMV-AVP: オートウェアを用いた分散多車種自動駐車
- Authors: Zubair Islam, Mohamed El-Darieby,
- Abstract要約: DMV-AVPシステムはAVPの分散シミュレーションである
提案システムは,協調型AVPシミュレーションをサポートし,将来の実世界のハードウェア・イン・ザ・ループバリデーションの基礎を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the DMV-AVP System, a distributed simulation of Multi-Vehicle Autonomous Valet Parking (AVP). The system was implemented as an application of the Distributed Multi-Vehicle Architecture (DMAVA) for synchronized multi-host execution. Most existing simulation approaches rely on centralized or non-distributed designs that constrain scalability and limit fully autonomous control. This work introduces two modules built on top of the DMAVA: 1) a Multi-Vehicle AVP Node that performs state-based coordination, queuing, and reservation management across multiple vehicles, and 2) a Unity-Integrated YOLOv5 Parking Spot Detection Module that provides real-time, vision-based perception within AWSIM Labs. Both modules integrate seamlessly with the DMAVA and extend it specifically for multi-vehicle AVP operation, supported by a Zenoh-based communication layer that ensures low-latency topic synchronization and coordinated behavior across hosts. Experiments conducted on two- and three-host configurations demonstrate deterministic coordination, conflict-free parking behavior, and scalable performance across distributed Autoware instances. The results confirm that the proposed Distributed Multi-Vehicle AVP System supports cooperative AVP simulation and establishes a foundation for future real-world and hardware-in-the-loop validation. Demo videos and source code are available at https://github.com/zubxxr/multi-vehicle-avp
- Abstract(参考訳): 本稿では,多車種自律Valet Parking(AVP)の分散シミュレーションであるDMV-AVPシステムを提案する。
このシステムはDMAVA(Distributed Multi-Vehicle Architecture)の同期マルチホスト実行への応用として実装された。
既存のシミュレーションアプローチの多くは、スケーラビリティを制限し、完全な自律制御を制限する集中的あるいは非分散的な設計に依存している。
この作業では、DMAVA上に構築された2つのモジュールを紹介します。
1)複数車両間の状態調整、待ち行列、予約管理を行う多車AVPノード
Unity-Integrated YOLOv5 Parking Spot Detection Moduleは、AWSIM Labs内でリアルタイムで視覚ベースの認識を提供する。
どちらのモジュールもDMAVAとシームレスに統合され、Zenohベースの通信層がサポートし、低レイテンシのトピック同期とホスト間の協調動作を保証する。
2つと3つのホスト構成で実施された実験では、決定論的コーディネーション、コンフリクトのない駐車動作、分散Autowareインスタンス間のスケーラブルなパフォーマンスが示されている。
その結果,提案する分散マルチサイクルAVPシステムは協調AVPシミュレーションをサポートし,将来の実世界およびループ内ハードウェア検証の基礎を確立することが確認された。
デモビデオとソースコードはhttps://github.com/zubxxr/multi-vehicle-avpで公開されている。
関連論文リスト
- DMAVA: Distributed Multi-Autonomous Vehicle Architecture Using Autoware [0.0]
本稿では,複数の物理ホストをまたいだリアルタイム自律運転シミュレーションを実現する分散マルチAVアーキテクチャ(DMAVA)を提案する。
提案システムは、ROS 2 Humble、Autoware Universe、AWSIM Labs、Zenohを統合し、共有Unityベースの環境で複数のAutowareスタックの同時実行をサポートする。
論文 参考訳(メタデータ) (2026-01-22T21:45:14Z) - Towards Intelligent Transportation with Pedestrians and Vehicles In-the-Loop: A Surveillance Video-Assisted Federated Digital Twin Framework [62.47416496137193]
本稿では,歩行者や車いすによるITSを支援するための監視ビデオ支援型デジタルツイン(SV-FDT)フレームワークを提案する。
i)複数のソースからトラフィック監視ビデオを収集するエンドレイヤ、(ii)セマンティックセグメンテーションに基づく視覚理解、ツインエージェントベースのインタラクションモデリング、およびローカルデジタルツインシステム(LDTS)をローカルで作成するエッジレイヤ、(iii)異なるリージョンにわたるLDTSを統合してグローバルDTモデルをリアルタイムで構築するクラウドレイヤの3層で構成されている。
論文 参考訳(メタデータ) (2025-03-06T07:36:06Z) - V2V-LLM: Vehicle-to-Vehicle Cooperative Autonomous Driving with Multi-Modal Large Language Models [31.537045261401666]
本稿では,多モード大規模言語モデルと協調自律運転を統合した新しい問題設定を提案する。
また,V2V-LLM(V2V-LLM)のベースライン手法を提案する。
実験結果から,提案するV2V-LLMは,協調運転における様々なタスクを遂行する上で,有望な統一モデルアーキテクチャとなる可能性が示唆された。
論文 参考訳(メタデータ) (2025-02-14T08:05:41Z) - M2DA: Multi-Modal Fusion Transformer Incorporating Driver Attention for Autonomous Driving [11.36165122994834]
自律運転にドライバ注意(M2DA)を組み込んだ多モード核融合トランスを提案する。
ドライバーの注意を取り入れることで、自動運転車に人間のようなシーン理解能力を付与し、重要な領域を正確に特定し、安全性を確保する。
論文 参考訳(メタデータ) (2024-03-19T08:54:52Z) - DI-V2X: Learning Domain-Invariant Representation for
Vehicle-Infrastructure Collaborative 3D Object Detection [78.09431523221458]
DI-V2Xは、新しい蒸留フレームワークを通じてドメイン不変表現を学習することを目的としている。
DI-V2Xは、ドメイン混合インスタンス拡張(DMA)モジュール、プログレッシブドメイン不変蒸留(PDD)モジュール、ドメイン適応融合(DAF)モジュールの3つの必須成分から構成される。
論文 参考訳(メタデータ) (2023-12-25T14:40:46Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - UniM$^2$AE: Multi-modal Masked Autoencoders with Unified 3D Representation for 3D Perception in Autonomous Driving [47.590099762244535]
Masked Autoencoders (MAE)は、強力な表現の学習において重要な役割を担い、様々な3D知覚タスクにおいて優れた結果をもたらす。
この研究は、自律運転における統一された表現空間に適したマルチモーダルのMasked Autoencodersに展開する。
画像に固有のセマンティクスとLiDAR点雲の幾何学的複雑さを複雑に結合するため,UniM$2$AEを提案する。
論文 参考訳(メタデータ) (2023-08-21T02:13:40Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。