論文の概要: Towards Natural Language Communication for Cooperative Autonomous Driving via Self-Play
- arxiv url: http://arxiv.org/abs/2505.18334v1
- Date: Fri, 23 May 2025 19:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.481947
- Title: Towards Natural Language Communication for Cooperative Autonomous Driving via Self-Play
- Title(参考訳): セルフプレイによる協調運転のための自然言語コミュニケーションに向けて
- Authors: Jiaxun Cui, Chen Tang, Jarrett Holtz, Janice Nguyen, Alessandro G. Allievi, Hang Qiu, Peter Stone,
- Abstract要約: 自然言語を車両間通信プロトコル(V2V)として使用すると、自動運転車が協力して運転する可能性がある。
本稿では,自律走行車におけるメッセージ生成と高レベル意思決定ポリシーを学習するための新しい手法 LLM+Debrief を提案する。
実験の結果,LLM+Debriefは有意義で理解可能な自然言語メッセージを生成するのに有効であることがわかった。
- 参考スコア(独自算出の注目度): 70.70505035012462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Past work has demonstrated that autonomous vehicles can drive more safely if they communicate with one another than if they do not. However, their communication has often not been human-understandable. Using natural language as a vehicle-to-vehicle (V2V) communication protocol offers the potential for autonomous vehicles to drive cooperatively not only with each other but also with human drivers. In this work, we propose a suite of traffic tasks in autonomous driving where vehicles in a traffic scenario need to communicate in natural language to facilitate coordination in order to avoid an imminent collision and/or support efficient traffic flow. To this end, this paper introduces a novel method, LLM+Debrief, to learn a message generation and high-level decision-making policy for autonomous vehicles through multi-agent discussion. To evaluate LLM agents for driving, we developed a gym-like simulation environment that contains a range of driving scenarios. Our experimental results demonstrate that LLM+Debrief is more effective at generating meaningful and human-understandable natural language messages to facilitate cooperation and coordination than a zero-shot LLM agent. Our code and demo videos are available at https://talking-vehicles.github.io/.
- Abstract(参考訳): 過去の研究は、自動運転車が互いにコミュニケーションをとれば、そうでなければ、より安全に運転できることを示してきた。
しかし、そのコミュニケーションは人間には理解できないことが多い。
自然言語を車両間通信プロトコル(V2V)として用いることで、自動運転車は互いにだけでなく、人間のドライバーとも協力して運転できる可能性がある。
本研究では,交通シナリオの車両が瞬時に衝突を回避したり,効率的な交通流を支援するために,自然言語で通信する必要がある自動運転における交通タスクのスイートを提案する。
そこで本研究では,複数エージェントによる議論を通じて,メッセージ生成と自動運転車の高レベル意思決定ポリシーを学習するための新しい手法 LLM+Debrief を提案する。
運転用LSMエージェントを評価するために,様々な運転シナリオを含むジムライクなシミュレーション環境を開発した。
実験の結果,LLM+Debrief はゼロショット LLM エージェントよりも協調や協調を容易にするために,有意義で理解しやすい自然言語メッセージを生成するのに有効であることがわかった。
私たちのコードとデモビデオはhttps://talking-vehicles.github.io/で公開されています。
関連論文リスト
- Automated Evaluation of Large Vision-Language Models on Self-driving Corner Cases [102.05741859030951]
自動運転コーナーケースにおけるLVLMの自動評価のための最初のベンチマークであるCODA-LMを提案する。
テキストのみの大規模言語モデルを判断として使用すると、LVLMの判断よりも人間の好みとの整合性が向上することを示す。
CODA-VLM は GPT-4V を+21.42% 上回っても GPT-4V と相容れない性能を示した。
論文 参考訳(メタデータ) (2024-04-16T14:20:55Z) - Personalized Autonomous Driving with Large Language Models: Field Experiments [11.429053835807697]
LLMベースのフレームワークであるTalk2Driveを導入し、自然言語コマンドを実行可能なコントロールに翻訳する。
これは、LLMを現実世界の自動運転車にデプロイする、最初の種類のマルチシナリオフィールド実験である。
提案するメモリモジュールは、パーソナライズされた好みを考慮し、さらに65.2%のテイクオーバ率を低下させる。
論文 参考訳(メタデータ) (2023-12-14T23:23:37Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - LMDrive: Closed-Loop End-to-End Driving with Large Language Models [37.910449013471656]
大規模言語モデル(LLM)は、"Artificial General Intelligence"にアプローチする印象的な推論能力を示している。
本稿では,新しい言語誘導,エンドツーエンド,クローズドループ自動運転フレームワークLMDriveを紹介する。
論文 参考訳(メタデータ) (2023-12-12T18:24:15Z) - Receive, Reason, and React: Drive as You Say with Large Language Models
in Autonomous Vehicles [13.102404404559428]
本稿では,Large Language Models (LLMs) を利用した自律走行車における意思決定プロセスを強化する新しいフレームワークを提案する。
我々の研究は、自動運転と戦術的意思決定タスクのための環境の集合であるHighwayEnvの実験を含む。
また、リアルタイムのパーソナライズも検討し、LLMが音声コマンドに基づいて運転行動にどう影響するかを示す。
論文 参考訳(メタデータ) (2023-10-12T04:56:01Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。