論文の概要: Leveraging Trustworthy AI for Automotive Security in Multi-Domain Operations: Towards a Responsive Human-AI Multi-Domain Task Force for Cyber Social Security
- arxiv url: http://arxiv.org/abs/2507.21145v1
- Date: Wed, 23 Jul 2025 11:46:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:54.990356
- Title: Leveraging Trustworthy AI for Automotive Security in Multi-Domain Operations: Towards a Responsive Human-AI Multi-Domain Task Force for Cyber Social Security
- Title(参考訳): マルチドメイン運用における自動車セキュリティのための信頼できるAIを活用する - サイバー社会セキュリティのための責任あるヒューマンAIマルチドメインタスクフォースを目指して
- Authors: Vita Santa Barletta, Danilo Caivano, Gabriel Cellammare, Samuele del Vescovo, Annita Larissa Sciacovelli,
- Abstract要約: MDO(Multi-Domain Operations)は、複雑でシナジスティックな脅威に対するドメイン間防御を強調する。
スマートシティやコネクテッド・オートモービルズ(CAV)といった市民のインフラが主要なターゲットとして浮上している。
デュアルユースアセットとして、CAVはマルチサーフェス脅威(MST)、特にAdversarial Machine Learning(AML)に対して脆弱である。
決定木に基づくアンサンブルモデル(RF)、グラディエントブースティング(GB)、エクストリームグラディエントブースティング(XGB)のキーハイパーパラメータがブラックボックスAML攻撃に要する時間にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 0.7842667530489607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Domain Operations (MDOs) emphasize cross-domain defense against complex and synergistic threats, with civilian infrastructures like smart cities and Connected Autonomous Vehicles (CAVs) emerging as primary targets. As dual-use assets, CAVs are vulnerable to Multi-Surface Threats (MSTs), particularly from Adversarial Machine Learning (AML) which can simultaneously compromise multiple in-vehicle ML systems (e.g., Intrusion Detection Systems, Traffic Sign Recognition Systems). Therefore, this study investigates how key hyperparameters in Decision Tree-based ensemble models-Random Forest (RF), Gradient Boosting (GB), and Extreme Gradient Boosting (XGB)-affect the time required for a Black-Box AML attack i.e. Zeroth Order Optimization (ZOO). Findings show that parameters like the number of trees or boosting rounds significantly influence attack execution time, with RF and GB being more sensitive than XGB. Adversarial Training (AT) time is also analyzed to assess the attacker's window of opportunity. By optimizing hyperparameters, this research supports Defensive Trustworthy AI (D-TAI) practices within MST scenarios and contributes to the development of resilient ML systems for civilian and military domains, aligned with Cyber Social Security framework in MDOs and Human-AI Multi-Domain Task Forces.
- Abstract(参考訳): MDO(Multi-Domain Operations)は、スマートシティやコネクテッド・オートモービルズ(CAV)といった民間インフラを主要ターゲットとして、複雑でシナジスティックな脅威に対するクロスドメイン防衛を強調している。
デュアルユースアセットとして、CAVはマルチサーフェス脅威(MST)、特に複数の車載MLシステム(侵入検知システム、交通信号認識システムなど)を同時に妥協できるAdversarial Machine Learning(AML)に対して脆弱である。
そこで本研究では,決定木に基づくアンサンブルモデル (RF), グラディエントブースティング (GB), エクストリームグラディエントブースティング (XGB) がブラックボックスAML攻撃に必要な時間,すなわちゼロオーダー最適化 (ZOO) にどのように影響するかを検討する。
調査の結果,木数や隆起ラウンドなどのパラメータが攻撃実行時間に大きな影響を与え,RFやGBはXGBよりも感度が高いことがわかった。
また、攻撃者の機会のウィンドウを評価するために、敵訓練(AT)時間も分析する。
ハイパーパラメータを最適化することにより、MSTシナリオ内でのD-TAI(Deepensive Trustworthy AI)の実践を支援し、MDOのサイバー社会保障フレームワークやヒューマン・AIマルチドメインタスクフォースと連携して、民間および軍事領域のレジリエントMLシステムの開発に寄与する。
関連論文リスト
- CyGATE: Game-Theoretic Cyber Attack-Defense Engine for Patch Strategy Optimization [73.13843039509386]
本稿では,攻撃と防御の相互作用をモデル化するゲーム理論フレームワークCyGATEを提案する。
CyGATEはサイバー・キル・チェーン(Cyber Kill Chain)の段階にわたって、サイバー紛争を部分的に観察可能なゲーム(POSG)として捉えている。
フレームワークの柔軟なアーキテクチャは、マルチエージェントシナリオの拡張を可能にする。
論文 参考訳(メタデータ) (2025-08-01T09:53:06Z) - Confidence-Regulated Generative Diffusion Models for Reliable AI Agent Migration in Vehicular Metaverses [55.70043755630583]
車両用AIエージェントには、環境認識、意思決定、行動実行能力が与えられている。
本稿では、信頼性の高い車両用AIエージェントマイグレーションフレームワークを提案し、信頼性の高い動的マイグレーションと効率的なリソーススケジューリングを実現する。
我々は,AIエージェントのマイグレーション決定を効率的に生成する信頼性制御型生成拡散モデル(CGDM)を開発した。
論文 参考訳(メタデータ) (2025-05-19T05:04:48Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - Automating Function-Level TARA for Automotive Full-Lifecycle Security [21.31114134291877]
本稿では,コンポーネント固有の詳細と大規模言語モデル(LLM)を用いて関数レベルTARAを自動化する最初のシステムであるDefenseWeaverを紹介する。
DefenseWeaverは、拡張されたOpenXSAM++フォーマットで記述されたシステム構成から、攻撃木とリスク評価を動的に生成する。
私たちはDefenseWeaverを4つの自動車セキュリティプロジェクトへの展開を通じて検証し、11の重要な攻撃パスを特定しました。
人間の専門家と比較して、DefenseWeaverは6つのアセスメントシナリオで手動のアタックツリー生成を上回った。
論文 参考訳(メタデータ) (2025-04-25T05:19:02Z) - Guardians of the Agentic System: Preventing Many Shots Jailbreak with Agentic System [0.8136541584281987]
本研究は,3つの検査手法を用いて,逆チューリングテストによりローグエージェントを検出し,マルチエージェントシミュレーションにより知覚的アライメントを解析する。
GEMINI 1.5 Pro と llama-3.3-70B, Deepseek r1 モデルを用いて, 抗ジェイルブレイクシステムを開発した。
GEMINI 1.5 Proの94%の精度など、検出能力は強いが、長時間の攻撃を受けた場合、システムは永続的な脆弱性に悩まされる。
論文 参考訳(メタデータ) (2025-02-23T23:35:15Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - Multi-Objective Reinforcement Learning for Automated Resilient Cyber Defence [0.0]
サイバー攻撃は、軍事指揮統制ネットワーク、情報、監視、偵察(ISR)システム、民間の臨界国家インフラにセキュリティ上の脅威をもたらす。
これらの攻撃における人工知能と自律エージェントの使用は、この脅威の規模、範囲、複雑さを増大させ、それらが引き起こす破壊を後押しする。
自律サイバー防衛(ACD)エージェントは、マシンスピードとこの問題に対処するために必要なスケールで応答することで、この脅威を軽減することを目指している。
論文 参考訳(メタデータ) (2024-11-26T16:51:52Z) - From Sands to Mansions: Towards Automated Cyberattack Emulation with Classical Planning and Large Language Models [10.557417449327868]
脅威情報による防衛をサポートするために、包括的で最新のサイバー攻撃データセットが必要である。
我々はAuroraを提案する。Auroraは、サードパーティの攻撃ツールと脅威情報レポートを使って、自律的にサイバー攻撃をエミュレートするシステムである。
Auroraを使って1000以上のアタックチェーンを含むデータセットを作成します。
論文 参考訳(メタデータ) (2024-07-24T01:33:57Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。