論文の概要: Autonomous Cyber Resilience via a Co-Evolutionary Arms Race within a Fortified Digital Twin Sandbox
- arxiv url: http://arxiv.org/abs/2506.20102v2
- Date: Thu, 16 Oct 2025 17:44:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 13:49:08.658861
- Title: Autonomous Cyber Resilience via a Co-Evolutionary Arms Race within a Fortified Digital Twin Sandbox
- Title(参考訳): デジタルツインサンドボックス内における共進化型アームレースによる自律型サイバーレジリエンス
- Authors: Malikussaid, Sutiyo,
- Abstract要約: 本稿では「信頼の傾向」に対処するARC(Adversarial Resilience Co-evolution)フレームワークを紹介する。
ARCは、Fortified Secure Digital Twin内での共同進化型武器レースを開催する。
包括的なアブレーション調査は、共進化プロセス自体が27%のパフォーマンス改善に寄与していることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The convergence of Information Technology and Operational Technology has exposed Industrial Control Systems to adaptive, intelligent adversaries that render static defenses obsolete. This paper introduces the Adversarial Resilience Co-evolution (ARC) framework, addressing the "Trinity of Trust" comprising model fidelity, data integrity, and analytical resilience. ARC establishes a co-evolutionary arms race within a Fortified Secure Digital Twin (F-SCDT), where a Deep Reinforcement Learning "Red Agent" autonomously discovers attack paths while an ensemble-based "Blue Agent" is continuously hardened against these threats. Experimental validation on the Tennessee Eastman Process (TEP) and Secure Water Treatment (SWaT) testbeds demonstrates superior performance in detecting novel attacks, with F1-scores improving from 0.65 to 0.89 and detection latency reduced from over 1200 seconds to 210 seconds. A comprehensive ablation study reveals that the co-evolutionary process itself contributes a 27% performance improvement. By integrating Explainable AI and proposing a Federated ARC architecture, this work presents a necessary paradigm shift toward dynamic, self-improving security for critical infrastructure.
- Abstract(参考訳): 情報技術と運用技術の融合により、産業制御システムは、静的防衛を時代遅れにする適応的でインテリジェントな敵に露出した。
本稿では, モデル忠実度, データ完全性, 分析レジリエンスを含む「信頼の傾向」に対処する, ARC(Adversarial Resilience Co-evolution)フレームワークを紹介する。
ARCはF-SCDT (Fortified Secure Digital Twin) の中で共同進化型武器レースを確立し、ディープ強化学習の「レッドエージェント」は攻撃経路を自律的に発見し、アンサンブルベースの「ブルーエージェント」はこれらの脅威に対して継続的に強化される。
テネシー・イーストマン・プロセス(TEP)とセキュア水処理(SWaT)テストベッドの実験的検証は、新しい攻撃を検出する上で優れた性能を示し、F1スコアは0.65から0.89に改善され、検出遅延は1200秒以上から210秒に短縮された。
包括的なアブレーション調査は、共進化プロセス自体が27%のパフォーマンス改善に寄与していることを示している。
Explainable AIを統合してFederated ARCアーキテクチャを提案することにより、重要なインフラストラクチャに対する動的で自己改善的なセキュリティへの、必要なパラダイムシフトが提示される。
関連論文リスト
- Thought Purity: Defense Paradigm For Chain-of-Thought Attack [14.92561128881555]
本稿では、悪意のあるコンテンツに対する抵抗性を高めつつ、運用効果を保ちながら、防御パラダイムであるThought Purityを提案する。
本手法は,強化学習型推論システムにおけるCoTA脆弱性に対する最初の包括的防御機構を確立する。
論文 参考訳(メタデータ) (2025-07-16T15:09:13Z) - Hierarchical Adversarially-Resilient Multi-Agent Reinforcement Learning for Cyber-Physical Systems Security [0.0]
本稿では,階層型適応型レジリエントなマルチエージェント強化学習フレームワークを提案する。
このフレームワークには、進化するサイバー脅威をシミュレートし予測するために設計された敵の訓練ループが含まれている。
論文 参考訳(メタデータ) (2025-06-12T01:38:25Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Preventing Adversarial AI Attacks Against Autonomous Situational Awareness: A Maritime Case Study [0.0]
アドリラル人工知能(AI)による攻撃は、自律走行に重大な脅威をもたらす。
本稿では、敵対的AIに関連する3つの重要な研究課題に対処する。
本稿では,複数入力とデータ融合を利用して防御部品を構築できるビルディングディフェンスを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:05Z) - Human-AI Collaboration in Cloud Security: Cognitive Hierarchy-Driven Deep Reinforcement Learning [7.370441344885935]
セキュリティ運用センター(SOC)は、高度な永続脅威(APT)に対抗するために、AI駆動の適応防御機構を採用しなければならない。
本稿では、SOCアナリストとAI駆動のAPTボット間の対話的意思決定をモデル化する、認知階層理論駆動型深層Q-ネットワーク(CHT-DQN)フレームワークを提案する。
我々のフレームワークは攻撃グラフに基づく強化学習を用いて適応的なSOC防御を強化する。
論文 参考訳(メタデータ) (2025-02-22T03:19:21Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Combating Advanced Persistent Threats: Challenges and Solutions [20.81151411772311]
先進的な永続的脅威(APT)の台頭は、サイバーセキュリティの重大な課題となっている。
Provenance graphベースのカーネルレベルの監査は、可視性とトレーサビリティを高めるための有望なアプローチとして登場した。
本稿では, ネットワークレベルの分散監査モデルを用いて, 費用対効果の高い攻撃再建を行うことを含む, プロファイナンスグラフを利用した効率的かつ堅牢なAPT防御手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T05:46:11Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。