論文の概要: Attack-Defense Trees with Offensive and Defensive Attributes (with Appendix)
- arxiv url: http://arxiv.org/abs/2504.12748v1
- Date: Thu, 17 Apr 2025 08:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:34:59.198384
- Title: Attack-Defense Trees with Offensive and Defensive Attributes (with Appendix)
- Title(参考訳): 攻撃的属性と防御的属性を持つアタックディフェンスツリー(アペンディクス付き)
- Authors: Danut-Valentin Copae, Reza Soltani, Milan Lopuhaä-Zwakenberg,
- Abstract要約: アタック・ディフェンス・ツリー(ADT)は、この相互作用を表現するのによく使われる方法論である。
この領域におけるこれまでの作業は、コスト、ダメージ、時間といったメトリクスを攻撃者の観点から分析することだけに重点を置いていた。
本稿では,防衛メトリクスをADTに組み込む新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.360022695699485
- License:
- Abstract: Effective risk management in cybersecurity requires a thorough understanding of the interplay between attacker capabilities and defense strategies. Attack-Defense Trees (ADTs) are a commonly used methodology for representing this interplay; however, previous work in this domain has only focused on analyzing metrics such as cost, damage, or time from the perspective of the attacker. This approach provides an incomplete view of the system, as it neglects to model defender attributes: in real-world scenarios, defenders have finite resources for countermeasures and are similarly constrained. In this paper, we propose a novel framework that incorporates defense metrics into ADTs, and we present efficient algorithms for computing the Pareto front between defense and attack metrics. Our methods encode both attacker and defender metrics as semirings, allowing our methods to be used for many metrics such as cost, damage, and skill. We analyze tree-structured ADTs using a bottom-up approach and general ADTs by translating them into binary decision diagrams. Experiments on randomly generated ADTS demonstrate that both approaches effectively handle ADTs with several hundred nodes.
- Abstract(参考訳): サイバーセキュリティにおける効果的なリスク管理は、攻撃者と防衛戦略の間の相互作用を徹底的に理解する必要がある。
アタック・ディフェンス・ツリー(ADT)は、この相互作用を表現するのによく使われる方法論であるが、この領域における以前の研究は、攻撃者の視点からのコスト、ダメージ、時間といったメトリクスの分析にのみ焦点を当てている。
実際のシナリオでは、ディフェンダーは対策のためのリソースが有限であり、同様に制約されている。
本稿では,防衛メトリクスをADTに組み込んだ新しいフレームワークを提案し,防衛と攻撃のメトリクスの間のParetoフロントを計算するための効率的なアルゴリズムを提案する。
我々の手法は攻撃者と防御者の両方のメトリクスをセミリングとしてエンコードし、コスト、ダメージ、スキルといった多くのメトリクスにメソッドを使うことができる。
ボトムアップアプローチと一般的なADTを用いて木構造ADTを解析し、それらをバイナリ決定ダイアグラムに変換する。
ランダムに生成されたADTSの実験では、両方のアプローチが数百のノードでADTを効果的に処理していることが示されている。
関連論文リスト
- AutoJailbreak: Exploring Jailbreak Attacks and Defenses through a Dependency Lens [83.08119913279488]
本稿では,ジェイルブレイク攻撃と防衛技術における依存関係の体系的解析について述べる。
包括的な、自動化された、論理的な3つのフレームワークを提案します。
このアンサンブル・ジェイルブレイク・アタックと防衛の枠組みは,既存の研究を著しく上回る結果となった。
論文 参考訳(メタデータ) (2024-06-06T07:24:41Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - A Game-Theoretic Approach for AI-based Botnet Attack Defence [5.020067709306813]
新しい世代のボットネットは、AI(Artificial Intelligent)技術を利用して、ボットマスターのアイデンティティと、検出を避けるための攻撃意図を隠蔽する。
この種のAIベースのボットネット攻撃に対する既存の防衛戦略の有効性を評価することのできる、既存のアセスメントツールが存在しない。
我々は,Nash Equilibrium (NE) に到達するためにボットネット攻撃者やディフェンダーが使用できる潜在的戦略の詳細を分析することができる逐次ゲーム理論モデルを提案する。
論文 参考訳(メタデータ) (2021-12-04T02:53:40Z) - Robust Person Re-identification with Multi-Modal Joint Defence [1.441703014203756]
既存の仕事は、主にメートル法防衛のための敵の訓練に依存している。
本稿では,メカニカルアタックとディフェンスメソッドのターゲット手法を提案する。
メカニカルディフェンスでは,プロアクティブディフェンスとパッシブディフェンスの2つの部分を含む共同ディフェンス法を提案する。
論文 参考訳(メタデータ) (2021-11-18T08:13:49Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Sparse Coding Frontend for Robust Neural Networks [11.36192454455449]
ディープニューラルネットワークは、小さくて逆向きに作られた摂動に弱いことが知られている。
現在の対人攻撃に対する防御方法は、対人訓練の変種である。
本稿では,クリーン画像に基づくスパース符号化に基づく根本的に異なる防御手法を提案する。
論文 参考訳(メタデータ) (2021-04-12T11:14:32Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。