論文の概要: UNCAP: Uncertainty-Guided Planning Using Natural Language Communication for Cooperative Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2510.12992v1
- Date: Tue, 14 Oct 2025 21:09:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.423012
- Title: UNCAP: Uncertainty-Guided Planning Using Natural Language Communication for Cooperative Autonomous Vehicles
- Title(参考訳): UNCAP: 協力型自律走行車における自然言語通信を用いた不確実性誘導計画
- Authors: Neel P. Bhatt, Po-han Li, Kushagra Gupta, Rohan Siva, Daniel Milan, Alexander T. Hogue, Sandeep P. Chinchali, David Fridovich-Keil, Zhangyang Wang, Ufuk Topcu,
- Abstract要約: 不確実性誘導自然言語協調自律計画(UNCAP)は、視覚言語モデルに基づく計画手法である。
CAVは、意思決定における認識の不確実性を明示的に考慮しながら、軽量な自然言語メッセージを介して通信することができる。
多様な運転シナリオに対する実験では、通信帯域幅が63%減少し、運転安全スコアが31%増加し、決定の不確実性が61%減少し、衝突距離マージンが4倍増加した。
- 参考スコア(独自算出の注目度): 79.10221881250759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safe large-scale coordination of multiple cooperative connected autonomous vehicles (CAVs) hinges on communication that is both efficient and interpretable. Existing approaches either rely on transmitting high-bandwidth raw sensor data streams or neglect perception and planning uncertainties inherent in shared data, resulting in systems that are neither scalable nor safe. To address these limitations, we propose Uncertainty-Guided Natural Language Cooperative Autonomous Planning (UNCAP), a vision-language model-based planning approach that enables CAVs to communicate via lightweight natural language messages while explicitly accounting for perception uncertainty in decision-making. UNCAP features a two-stage communication protocol: (i) an ego CAV first identifies the subset of vehicles most relevant for information exchange, and (ii) the selected CAVs then transmit messages that quantitatively express their perception uncertainty. By selectively fusing messages that maximize mutual information, this strategy allows the ego vehicle to integrate only the most relevant signals into its decision-making, improving both the scalability and reliability of cooperative planning. Experiments across diverse driving scenarios show a 63% reduction in communication bandwidth with a 31% increase in driving safety score, a 61% reduction in decision uncertainty, and a four-fold increase in collision distance margin during near-miss events. Project website: https://uncap-project.github.io/
- Abstract(参考訳): 複数のコラボレーティブ・コネクテッド・オートモービル(CAV)の安全な大規模協調は、効率的かつ解釈可能なコミュニケーションに依存している。
既存のアプローチでは、高帯域の生のデータストリームを送信するか、あるいは認識を無視し、共有データに固有の不確実性を計画している。
これらの制約に対処するため、我々は、CAVが意思決定における認識の不確実性を明示的に考慮しつつ、軽量な自然言語メッセージを介してコミュニケーションできる視覚言語モデルに基づく計画手法であるUncertainty-Guided Natural Language Cooperative Autonomous Planning (UNCAP)を提案する。
UNCAPは2段階の通信プロトコルを備えている。
i)ego CAVは、まず、情報交換に最も関係のある車両のサブセットを特定し、
(II)選択したCAVは、その認識の不確かさを定量的に表すメッセージを送信する。
相互情報を最大化するメッセージを選択的に融合することにより、この戦略により、エゴ車両はその決定に最も関連性の高い信号のみを統合でき、協調計画のスケーラビリティと信頼性を向上することができる。
多様な運転シナリオを対象とした実験では、通信帯域幅が63%減少し、運転安全スコアが31%増加し、決定の不確実性が61%減少し、衝突距離マージンが4倍増加した。
プロジェクトウェブサイト:https://uncap-project.github.io/
関連論文リスト
- Automated Vehicles Should be Connected with Natural Language [10.579888130257185]
マルチエージェント共同運転は、集合認識と意思決定による交通安全と効率の向上を約束する。
既存の通信媒体は、帯域幅の効率、情報の完全性、エージェントの相互運用性に制限がある。
これらの課題に対処するには、純粋に知覚指向のデータ交換から、自然言語を用いた明示的な意図と推論コミュニケーションへの移行が必要である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-29T16:41:19Z) - Task-Oriented Semantic Communication in Large Multimodal Models-based Vehicle Networks [55.32199894495722]
LMMに基づく車両用AIアシスタントLarge Language and Vision Assistant(LLaVA)について検討する。
計算要求を減らし、応答時間を短縮するため、LLaVAの画像スライシングを最適化し、ユーザにとって最も関心のある領域に選択的にフォーカスする。
交通シナリオに対する視覚質問応答(VQA)データセットを構築し,有効性を評価する。
論文 参考訳(メタデータ) (2025-05-05T07:18:47Z) - LangCoop: Collaborative Driving with Language [13.25814019477039]
LangCoopは、自然言語をエージェント間通信のためのコンパクトで表現力のある媒体として活用する、協調自律運転の新しいパラダイムである。
LangCoopは、画像ベースの通信に比べて、通信帯域幅(メッセージあたり2KB)が96%減少している。
論文 参考訳(メタデータ) (2025-04-18T02:03:14Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [87.7482313774741]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Semantic Communication for Cooperative Perception using HARQ [51.148203799109304]
我々は重要セマンティック情報を抽出するために重要地図を活用し、協調的な知覚セマンティックコミュニケーションフレームワークを導入する。
周波数分割多重化(OFDM)とチャネル推定と等化戦略を併用して,時間変化によるマルチパスフェーディングによる課題に対処する。
我々は,ハイブリッド自動繰り返し要求(HARQ)の精神において,我々の意味コミュニケーションフレームワークと統合された新しい意味エラー検出手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T08:53:26Z) - SmartCooper: Vehicular Collaborative Perception with Adaptive Fusion and
Judger Mechanism [23.824400533836535]
通信最適化と判断機構を組み込んだ適応型協調認識フレームワークであるSmartCooperを紹介する。
以上の結果から,非ジュッジャー方式に比べて通信コストが23.10%大幅に削減された。
論文 参考訳(メタデータ) (2024-02-01T04:15:39Z) - Selective Communication for Cooperative Perception in End-to-End
Autonomous Driving [8.680676599607123]
協調認識のための新しい選択的コミュニケーションアルゴリズムを提案する。
提案アルゴリズムは, 従来研究されてきた安全クリティカル運転シナリオシミュレーションにおいて, ランダム選択法よりも高い成功率を示す。
論文 参考訳(メタデータ) (2023-05-26T18:13:17Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。