論文の概要: Automating Function-Level TARA for Automotive Full-Lifecycle Security
- arxiv url: http://arxiv.org/abs/2504.18083v1
- Date: Fri, 25 Apr 2025 05:19:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.650371
- Title: Automating Function-Level TARA for Automotive Full-Lifecycle Security
- Title(参考訳): 自動車用フルライフサイクルセキュリティのための機能レベルTARAの自動化
- Authors: Yuqiao Yang, Yongzhao Zhang, Wenhao Liu, Jun Li, Pengtao Shi, DingYu Zhong, Jie Yang, Ting Chen, Sheng Cao, Yuntao Ren, Yongyue Wu, Xiaosong Zhang,
- Abstract要約: 本稿では,コンポーネント固有の詳細と大規模言語モデル(LLM)を用いて関数レベルTARAを自動化する最初のシステムであるDefenseWeaverを紹介する。
DefenseWeaverは、拡張されたOpenXSAM++フォーマットで記述されたシステム構成から、攻撃木とリスク評価を動的に生成する。
私たちはDefenseWeaverを4つの自動車セキュリティプロジェクトへの展開を通じて検証し、11の重要な攻撃パスを特定しました。
人間の専門家と比較して、DefenseWeaverは6つのアセスメントシナリオで手動のアタックツリー生成を上回った。
- 参考スコア(独自算出の注目度): 21.31114134291877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As modern vehicles evolve into intelligent and connected systems, their growing complexity introduces significant cybersecurity risks. Threat Analysis and Risk Assessment (TARA) has therefore become essential for managing these risks under mandatory regulations. However, existing TARA automation methods rely on static threat libraries, limiting their utility in the detailed, function-level analyses demanded by industry. This paper introduces DefenseWeaver, the first system that automates function-level TARA using component-specific details and large language models (LLMs). DefenseWeaver dynamically generates attack trees and risk evaluations from system configurations described in an extended OpenXSAM++ format, then employs a multi-agent framework to coordinate specialized LLM roles for more robust analysis. To further adapt to evolving threats and diverse standards, DefenseWeaver incorporates Low-Rank Adaptation (LoRA) fine-tuning and Retrieval-Augmented Generation (RAG) with expert-curated TARA reports. We validated DefenseWeaver through deployment in four automotive security projects, where it identified 11 critical attack paths, verified through penetration testing, and subsequently reported and remediated by the relevant automakers and suppliers. Additionally, DefenseWeaver demonstrated cross-domain adaptability, successfully applying to unmanned aerial vehicles (UAVs) and marine navigation systems. In comparison to human experts, DefenseWeaver outperformed manual attack tree generation across six assessment scenarios. Integrated into commercial cybersecurity platforms such as UAES and Xiaomi, DefenseWeaver has generated over 8,200 attack trees. These results highlight its ability to significantly reduce processing time, and its scalability and transformative impact on cybersecurity across industries.
- Abstract(参考訳): 現代の車両がインテリジェントでコネクテッドなシステムへと進化するにつれ、その複雑化はサイバーセキュリティの重大なリスクをもたらす。
したがって、脅威分析・リスクアセスメント(TARA)は、これらのリスクを強制規制の下で管理するために欠かせないものとなっている。
しかし、既存のTARA自動化手法は静的脅威ライブラリに依存しており、産業が要求する詳細な機能レベルの分析において実用性を制限している。
本稿では,コンポーネント固有の詳細情報と大規模言語モデル(LLM)を用いて関数レベルのTARAを自動化する最初のシステムであるDefenseWeaverを紹介する。
DefenseWeaverは、拡張されたOpenXSAM++フォーマットで記述されたシステム構成から、攻撃木とリスク評価を動的に生成し、さらに堅牢な分析のために、特殊なLLMロールを調整するためにマルチエージェントフレームワークを使用する。
進化する脅威と多様な標準にさらに適応するために、DefenseWeaverはローランド適応(LoRA)ファインチューニングと、専門家によるTARAレポートとRetrieval-Augmented Generation(RAG)を組み込んでいる。
われわれは、DefenseWeaverを4つの自動車セキュリティプロジェクトへの展開を通じて検証し、11の重要な攻撃経路を特定し、侵入テストを通じて検証し、関連する自動車メーカーやサプライヤーによって報告および仲介された。
さらにディフェンスウィーバーはクロスドメイン適応性を示し、無人航空機(UAV)や海上航法システムにうまく適用した。
人間の専門家と比較して、DefenseWeaverは6つのアセスメントシナリオで手動のアタックツリー生成を上回った。
UAESやXiaomiなどの商用サイバーセキュリティプラットフォームに統合されたDefenseWeaverは,8200以上の攻撃ツリーを生成している。
これらの結果は、処理時間を大幅に短縮する能力と、業界全体のサイバーセキュリティに対するスケーラビリティと変革的な影響を強調している。
関連論文リスト
- Safety and Security Risk Mitigation in Satellite Missions via Attack-Fault-Defense Trees [2.252059459291148]
本研究は,アルゼンチンの航空宇宙専門のミッションクリティカルシステム企業であるAscentio Technologiesの事例研究である。
主な焦点は、現在同社が開発している衛星プロジェクトのためのGround Segmentだ。
本稿では,アタックツリー,フォールトツリー,防御機構を統一モデルに統合したアタック・フォールト・ディフェンス・ツリー・フレームワークの適用について述べる。
論文 参考訳(メタデータ) (2025-04-01T17:24:43Z) - LLM-Assisted Proactive Threat Intelligence for Automated Reasoning [2.0427650128177]
本研究は、リアルタイムサイバーセキュリティ脅威の検出と応答を強化する新しいアプローチを提案する。
我々は,大規模言語モデル (LLM) とレトリーバル拡張生成システム (RAG) を連続的な脅威知能フィードに統合する。
論文 参考訳(メタデータ) (2025-04-01T05:19:33Z) - Robust Intrusion Detection System with Explainable Artificial Intelligence [0.0]
逆入力は、標準インターフェイスを通じて機械学習(ML)モデルを利用することができる。
敵の訓練のような従来の防御は、計算的な用語で費用がかかるため、しばしばリアルタイム検出の提供に失敗する。
eXplainable Artificial Intelligence (XAI) を用いた敵攻撃の検出と緩和のための新しい戦略を提案する。
論文 参考訳(メタデータ) (2025-03-07T10:31:59Z) - Guardians of the Agentic System: Preventing Many Shots Jailbreak with Agentic System [0.8136541584281987]
本研究は,3つの検査手法を用いて,逆チューリングテストによりローグエージェントを検出し,マルチエージェントシミュレーションにより知覚的アライメントを解析する。
GEMINI 1.5 Pro と llama-3.3-70B, Deepseek r1 モデルを用いて, 抗ジェイルブレイクシステムを開発した。
GEMINI 1.5 Proの94%の精度など、検出能力は強いが、長時間の攻撃を受けた場合、システムは永続的な脆弱性に悩まされる。
論文 参考訳(メタデータ) (2025-02-23T23:35:15Z) - SPADE: Enhancing Adaptive Cyber Deception Strategies with Generative AI and Structured Prompt Engineering [0.17999333451993949]
本研究では、ジェネレーティブAI(GenAI)モデルを利用して、適応型サイバー詐欺対策の開発を自動化する。
我々は,大規模言語モデルが適応的騙しにもたらす固有の課題に対処するために,体系的フレームワーク(SPADE)を導入する。
論文 参考訳(メタデータ) (2025-01-01T19:44:30Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - From Sands to Mansions: Towards Automated Cyberattack Emulation with Classical Planning and Large Language Models [10.557417449327868]
脅威情報による防衛をサポートするために、包括的で最新のサイバー攻撃データセットが必要である。
我々はAuroraを提案する。Auroraは、サードパーティの攻撃ツールと脅威情報レポートを使って、自律的にサイバー攻撃をエミュレートするシステムである。
Auroraを使って1000以上のアタックチェーンを含むデータセットを作成します。
論文 参考訳(メタデータ) (2024-07-24T01:33:57Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。