論文の概要: Security Risks of Agentic Vehicles: A Systematic Analysis of Cognitive and Cross-Layer Threats
- arxiv url: http://arxiv.org/abs/2512.17041v1
- Date: Thu, 18 Dec 2025 20:04:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.157673
- Title: Security Risks of Agentic Vehicles: A Systematic Analysis of Cognitive and Cross-Layer Threats
- Title(参考訳): エージェント車両のセキュリティリスク:認知的・横断的脅威の体系的分析
- Authors: Ali Eslami, Jiangbo Yu,
- Abstract要約: エージェントAIは、手動運転と自律走行の両方で研究され、導入されている。
本稿では,エージェント層に影響を及ぼす他の層からのサイバー攻撃を含む,AgVのセキュリティ脅威について検討する。
重度行列とアタックチェーン分析は、小さな歪みがいかに不整合あるいは不安全な振る舞いにエスカレートするかを示している。
- 参考スコア(独自算出の注目度): 0.38978027689073086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agentic AI is increasingly being explored and introduced in both manually driven and autonomous vehicles, leading to the notion of Agentic Vehicles (AgVs), with capabilities such as memory-based personalization, goal interpretation, strategic reasoning, and tool-mediated assistance. While frameworks such as the OWASP Agentic AI Security Risks highlight vulnerabilities in reasoning-driven AI systems, they are not designed for safety-critical cyber-physical platforms such as vehicles, nor do they account for interactions with other layers such as perception, communication, and control layers. This paper investigates security threats in AgVs, including OWASP-style risks and cyber-attacks from other layers affecting the agentic layer. By introducing a role-based architecture for agentic vehicles, consisting of a Personal Agent and a Driving Strategy Agent, we will investigate vulnerabilities in both agentic AI layer and cross-layer risks, including risks originating from upstream layers (e.g., perception layer, control layer, etc.). A severity matrix and attack-chain analysis illustrate how small distortions can escalate into misaligned or unsafe behavior in both human-driven and autonomous vehicles. The resulting framework provides the first structured foundation for analyzing security risks of agentic AI in both current and emerging vehicle platforms.
- Abstract(参考訳): エージェントAIは、手動運転と自律走行の両方で研究され導入され、メモリベースのパーソナライゼーション、目標解釈、戦略的推論、ツールによる支援といった機能を備えたエージェント車両(AgV)の概念が導かれる。
OWASP Agentic AI Security Risksのようなフレームワークは、推論駆動型AIシステムの脆弱性を強調しているが、車両のような安全クリティカルなサイバー物理プラットフォームのために設計されておらず、知覚、コミュニケーション、制御層といった他のレイヤとの相互作用も考慮していない。
本稿では,エージェント層に影響を与える他の層からのOWASPスタイルのリスクやサイバー攻撃を含む,AgVのセキュリティ上の脅威について検討する。
パーソナルエージェントと駆動戦略エージェントで構成されるエージェント車両のロールベースアーキテクチャを導入することで、上流層(例えば、知覚層、制御層など)から発生するリスクを含むエージェントAIレイヤとクロスレイヤリスクの両方の脆弱性を調査する。
重度行列とアタックチェーン分析は、人間駆動車と自律車の両方において、小さな歪みが不整合あるいは安全でない行動へとエスカレートする様子を示しています。
その結果生まれたフレームワークは、現在および新興の車両プラットフォームにおけるエージェントAIのセキュリティリスクを分析するための、最初の構造化された基盤を提供する。
関連論文リスト
- A Safety and Security Framework for Real-World Agentic Systems [2.05255620498371]
本稿では,企業展開におけるエージェントAIシステムの確保のための動的かつ実用的なフレームワークを提案する。
本稿では,ユーザ安全のレンズによる新たなエージェントリスクの同定手法を提案する。
NVIDIAのフラッグシップエージェント研究アシスタントであるAI-Q Research Assistantの詳細なケーススタディを通じて、フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2025-11-27T00:19:24Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - Towards Unifying Quantitative Security Benchmarking for Multi Agent Systems [0.0]
AIシステムの進化 自律エージェントが協力し、情報を共有し、プロトコルを開発することでタスクを委譲するマルチエージェントアーキテクチャをますます展開する。
そのようなリスクの1つはカスケードリスクである。あるエージェントの侵入はシステムを通してカスケードし、エージェント間の信頼を利用して他人を妥協させる。
ACI攻撃では、あるエージェントに悪意のあるインプットまたはツールエクスプロイトが注入され、そのアウトプットを信頼するエージェント間でカスケードの妥協とダウンストリーム効果が増幅される。
論文 参考訳(メタデータ) (2025-07-23T13:51:28Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems [8.683314804719506]
本稿では,エージェントマルチエージェントシステム(AMAS)における信頼・リスク・セキュリティマネジメント(TRiSM)の構造的分析について述べる。
まず、エージェントAIの概念的基礎を調べ、従来のAIエージェントとアーキテクチャ的区別を強調します。
次に、Textit Explainability、ModelOps、Security、Privacy、Textittheirのガバナンスガバナンスといった重要な柱を中心に構築された、エージェントAIのためのAI TRiSMフレームワークを適応して拡張します。
調整失敗から調整失敗まで、エージェントAIのユニークな脅威と脆弱性を捉えるためにリスク分類法が提案されている。
論文 参考訳(メタデータ) (2025-06-04T16:26:11Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Multi-Agent Risks from Advanced AI [90.74347101431474]
先進的なAIのマルチエージェントシステムは、新規で未発見のリスクを生じさせる。
エージェントのインセンティブに基づく3つの重要な障害モードと7つの重要なリスク要因を同定する。
各リスクのいくつかの重要な事例と、それらを緩和するための有望な方向性を強調します。
論文 参考訳(メタデータ) (2025-02-19T23:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。