論文の概要: Robustness of LLM-enabled vehicle trajectory prediction under data security threats
- arxiv url: http://arxiv.org/abs/2511.13753v1
- Date: Fri, 14 Nov 2025 03:26:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.678949
- Title: Robustness of LLM-enabled vehicle trajectory prediction under data security threats
- Title(参考訳): データセキュリティ脅威下におけるLLM対応車両軌道予測のロバスト性
- Authors: Feilong Wang, Fuqiang Liu,
- Abstract要約: 大型言語モデル(LLM)は、周囲の車両からデータを収集・変換することで、車両軌跡や車線変更意図を正確に予測することができる。
本研究では,LLM対応車両軌道予測の系統的脆弱性解析を行うことにより,このギャップを解消する。
高Dデータセットの実験では、小さな、物理的に妥当な摂動でさえ、モデル出力を著しく破壊する可能性があることが明らかになった。
- 参考スコア(独自算出の注目度): 6.812902306426757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of large language models (LLMs) into automated driving systems has opened new possibilities for reasoning and decision-making by transforming complex driving contexts into language-understandable representations. Recent studies demonstrate that fine-tuned LLMs can accurately predict vehicle trajectories and lane-change intentions by gathering and transforming data from surrounding vehicles. However, the robustness of such LLM-based prediction models for safety-critical driving systems remains unexplored, despite the increasing concerns about the trustworthiness of LLMs. This study addresses this gap by conducting a systematic vulnerability analysis of LLM-enabled vehicle trajectory prediction. We propose a one-feature differential evolution attack that perturbs a single kinematic feature of surrounding vehicles within the LLM's input prompts under a black-box setting. Experiments on the highD dataset reveal that even minor, physically plausible perturbations can significantly disrupt model outputs, underscoring the susceptibility of LLM-based predictors to adversarial manipulation. Further analyses reveal a trade-off between accuracy and robustness, examine the failure mechanism, and explore potential mitigation solutions. The findings provide the very first insights into adversarial vulnerabilities of LLM-driven automated vehicle models in the context of vehicular interactions and highlight the need for robustness-oriented design in future LLM-based intelligent transportation systems.
- Abstract(参考訳): 大規模言語モデル(LLM)を自動走行システムに統合することで、複雑な駆動コンテキストを言語理解可能な表現に変換することにより、推論と意思決定の新たな可能性が開かれた。
近年の研究では、微調整LLMが周囲の車両からデータを収集・変換することで、車両軌道や車線変更の意図を正確に予測できることが示されている。
しかし、LLMの信頼性に対する懸念が高まりつつも、安全クリティカルな運転システムに対するそのようなLLMベースの予測モデルの堅牢性は未解明のままである。
本研究では,LLM対応車両軌道予測の系統的脆弱性解析を行うことにより,このギャップを解消する。
ブラックボックス設定下でのLSMの入力プロンプト内における周辺車両の1つのキネマティック特徴を摂動する1機能差分進化攻撃を提案する。
高Dデータセットの実験では、たとえ小さな、物理的に妥当な摂動であっても、モデル出力を著しく破壊し、LLMベースの予測器の敵の操作に対する感受性を暗示している。
さらに、精度とロバスト性の間のトレードオフを明らかにし、故障メカニズムを調べ、潜在的な緩和ソリューションを探る。
この発見は、車体相互作用の文脈におけるLLM駆動自動車両モデルの敵意的脆弱性に関する最初の洞察を与え、将来のLLMベースのインテリジェントトランスポートシステムにおけるロバストネス指向設計の必要性を強調している。
関連論文リスト
- Large Foundation Models for Trajectory Prediction in Autonomous Driving: A Comprehensive Survey [26.44322475984292]
軌道予測は自動運転において重要な機能である。
LFM(Large Foundation Models)の台頭は、軌道予測の研究パラダイムを変えつつある。
本稿では、トラジェクティブ言語マッピング、マルチモーダル融合、制約ベースの推論の3つの中核となる方法論を取り上げる。
論文 参考訳(メタデータ) (2025-09-11T10:30:06Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - Strada-LLM: Graph LLM for traffic prediction [62.2015839597764]
交通予測における大きな課題は、非常に異なる交通条件によって引き起こされる多様なデータ分散を扱うことである。
近位交通情報を考慮した交通予測のためのグラフ対応LLMを提案する。
我々は、新しいデータ分散に直面する際に、ドメイン適応を効率的にするための軽量なアプローチを採用する。
論文 参考訳(メタデータ) (2024-10-28T09:19:29Z) - Using Multimodal Large Language Models for Automated Detection of Traffic Safety Critical Events [5.233512464561313]
MLLM(Multimodal Large Language Models)は、テキスト、ビジュアル、オーディオのモダリティを統合する新しいアプローチを提供する。
我々のフレームワークはMLLMの推論能力を活用し、文脈固有のプロンプトを通して出力を誘導する。
予備的な結果は、ゼロショット学習と正確なシナリオ分析におけるフレームワークの可能性を示している。
論文 参考訳(メタデータ) (2024-06-19T23:50:41Z) - A Superalignment Framework in Autonomous Driving with Large Language Models [2.650382010271]
大規模言語モデル (LLM) と多モード大規模言語モデル (MLLM) は、自律運転において広く使われている。
その重要性にもかかわらず、自動運転におけるLLMのセキュリティの側面は未解明のままである。
本研究は,マルチエージェントLLMアプローチを利用した,自動運転車の新たなセキュリティフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-09T05:26:38Z) - Probing Multimodal LLMs as World Models for Driving [72.18727651074563]
自律運転におけるMLLM(Multimodal Large Language Models)の適用について検討する。
GPT-4oのようなモデルの開発は進んでいるが、複雑な運転環境における性能は未解明のままである。
論文 参考訳(メタデータ) (2024-05-09T17:52:42Z) - LC-LLM: Explainable Lane-Change Intention and Trajectory Predictions with Large Language Models [8.624969693477448]
既存の動き予測手法は、特に長期予測精度と解釈可能性の観点から、改善の余地が十分にある。
本稿では,大規模言語モデルの強い推論能力と自己説明能力を活用する,説明可能なレーン変更予測モデルLC-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:34:55Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。