論文の概要: Drive as You Speak: Enabling Human-Like Interaction with Large Language
Models in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2309.10228v1
- Date: Tue, 19 Sep 2023 00:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 16:57:25.122602
- Title: Drive as You Speak: Enabling Human-Like Interaction with Large Language
Models in Autonomous Vehicles
- Title(参考訳): drive as you speak: 自動運転車における大型言語モデルとのヒューマンライクなインタラクションの実現
- Authors: Can Cui, Yunsheng Ma, Xu Cao, Wenqian Ye and Ziran Wang
- Abstract要約: 本稿では,Large Language Models (LLMs) を利用して自動運転車の意思決定プロセスを強化する新しいフレームワークを提案する。
提案されたフレームワークは、自動運転車の運転方法に革命をもたらす可能性を秘めており、パーソナライズされた支援、継続的学習、透明性のある意思決定を提供する。
- 参考スコア(独自算出の注目度): 13.102404404559428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The future of autonomous vehicles lies in the convergence of human-centric
design and advanced AI capabilities. Autonomous vehicles of the future will not
only transport passengers but also interact and adapt to their desires, making
the journey comfortable, efficient, and pleasant. In this paper, we present a
novel framework that leverages Large Language Models (LLMs) to enhance
autonomous vehicles' decision-making processes. By integrating LLMs' natural
language capabilities and contextual understanding, specialized tools usage,
synergizing reasoning, and acting with various modules on autonomous vehicles,
this framework aims to seamlessly integrate the advanced language and reasoning
capabilities of LLMs into autonomous vehicles. The proposed framework holds the
potential to revolutionize the way autonomous vehicles operate, offering
personalized assistance, continuous learning, and transparent decision-making,
ultimately contributing to safer and more efficient autonomous driving
technologies.
- Abstract(参考訳): 自動運転車の未来は、人間中心の設計と高度なAI能力の融合にある。
未来の自動運転車は乗客を輸送するだけでなく、乗客の欲望に適応し、旅行を快適に、効率的かつ快適にする。
本稿では,大型言語モデル(llms)を活用して自動運転車の意思決定プロセスを強化する新しい枠組みを提案する。
LLMの自然言語能力と文脈理解、特殊ツールの使用、推論の相乗化、および自律走行車における様々なモジュールとの動作によって、このフレームワークはLLMの高度な言語と推論能力を自律走行車にシームレスに統合することを目的としている。
提案されたフレームワークは、自動運転車の運転方法に革命をもたらす可能性を持ち、パーソナライズされた支援、継続的学習、透明性のある意思決定を提供し、最終的にはより安全で効率的な自動運転技術に寄与する。
関連論文リスト
- Large Language Models for Autonomous Driving (LLM4AD): Concept, Benchmark, Simulation, and Real-Vehicle Experiment [15.52530518623987]
大規模言語モデル(LLM)は、自律運転システムの様々な側面を強化する可能性を秘めている。
本稿では,LLMを自動走行(LLM4AD)用に設計するための新しい概念とアプローチを紹介する。
論文 参考訳(メタデータ) (2024-10-20T04:36:19Z) - VLP: Vision Language Planning for Autonomous Driving [52.640371249017335]
本稿では,言語理解と自律運転のギャップを埋めるために,言語モデルを利用したビジョン・ランゲージ・プランニングフレームワークを提案する。
平均的なL2エラーと衝突率でそれぞれ35.9%と60.5%の削減を達成して、NuScenesデータセットの最先端のエンドツーエンドプランニング性能を達成している。
論文 参考訳(メタデータ) (2024-01-10T23:00:40Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Applications of Large Scale Foundation Models for Autonomous Driving [22.651585322658686]
大規模言語モデル(LLM)とチャットシステム、例えばチャットGPTやPaLMは、自然言語処理(NLP)において人工知能(AGI)を実現するための有望な方向性として急速に現れつつある。
本稿では、シミュレーション、世界モデル、データアノテーションと計画、E2Eソリューションなどに分類される、自動運転に応用された基礎モデルとLLMの技術について検討する。
論文 参考訳(メタデータ) (2023-11-20T19:45:27Z) - A Language Agent for Autonomous Driving [31.359413767191608]
本稿では,人間のような知性を自律運転システムに統合するためのパラダイムシフトを提案する。
当社のアプローチはAgent-Driverと呼ばれ,汎用ツールライブラリを導入して,従来の自律走行パイプラインを変革する。
LLM(Large Language Models)によって駆動されるエージェントドライブには直感的な常識と堅牢な推論能力が備わっています。
論文 参考訳(メタデータ) (2023-11-17T18:59:56Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Receive, Reason, and React: Drive as You Say with Large Language Models
in Autonomous Vehicles [13.102404404559428]
本稿では,Large Language Models (LLMs) を利用した自律走行車における意思決定プロセスを強化する新しいフレームワークを提案する。
我々の研究は、自動運転と戦術的意思決定タスクのための環境の集合であるHighwayEnvの実験を含む。
また、リアルタイムのパーソナライズも検討し、LLMが音声コマンドに基づいて運転行動にどう影響するかを示す。
論文 参考訳(メタデータ) (2023-10-12T04:56:01Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。