論文の概要: Optimizing Preventive and Reactive Defense Resource Allocation with Uncertain Sensor Signals
- arxiv url: http://arxiv.org/abs/2508.02881v1
- Date: Mon, 04 Aug 2025 20:21:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.672487
- Title: Optimizing Preventive and Reactive Defense Resource Allocation with Uncertain Sensor Signals
- Title(参考訳): 不確実なセンサ信号による防御資源配置の最適化
- Authors: Faezeh Shojaeighadikolaei, Shouhuai Xu, Keith Paarporn,
- Abstract要約: 予防資源への最適投資が増加し,反応性のある資源投資が減少し,センサの質が向上することを示す。
また,攻撃者が低攻撃成功確率しか達成できない場合,攻撃者の性能向上は,センサが採用されていないベースラインと比較して最大であることを示す。
- 参考スコア(独自算出の注目度): 6.243678490046079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyber attacks continue to be a cause of concern despite advances in cyber defense techniques. Although cyber attacks cannot be fully prevented, standard decision-making frameworks typically focus on how to prevent them from succeeding, without considering the cost of cleaning up the damages incurred by successful attacks. This motivates us to investigate a new resource allocation problem formulated in this paper: The defender must decide how to split its investment between preventive defenses, which aim to harden nodes from attacks, and reactive defenses, which aim to quickly clean up the compromised nodes. This encounters a challenge imposed by the uncertainty associated with the observation, or sensor signal, whether a node is truly compromised or not; this uncertainty is real because attack detectors are not perfect. We investigate how the quality of sensor signals impacts the defender's strategic investment in the two types of defense, and ultimately the level of security that can be achieved. In particular, we show that the optimal investment in preventive resources increases, and thus reactive resource investment decreases, with higher sensor quality. We also show that the defender's performance improvement, relative to a baseline of no sensors employed, is maximal when the attacker can only achieve low attack success probabilities.
- Abstract(参考訳): サイバー攻撃はサイバー防衛技術の進歩にもかかわらず、引き続き懸念の的となっている。
サイバー攻撃を完全に防ぐことはできないが、標準的な意思決定フレームワークは、攻撃の成功によって引き起こされる損害を浄化するコストを考慮せずに、一般的に、サイバー攻撃が成功するのを防ぐ方法に焦点を当てている。
防御者は、攻撃からノードを強化することを目的とした予防防衛と、妥協したノードを迅速にクリーンアップすることを目的としたリアクティブ防衛の2つに、その投資をどのように分割するかを決めなければなりません。
これは、観測と関連する不確実性や、ノードが真に損なわれているかどうかのセンサー信号によって課される課題に遭遇する。
センサ信号の質が2種類の防衛に対するディフェンダーの戦略的投資にどのように影響するか、そして最終的に達成可能なセキュリティレベルについて検討する。
特に, 予防資源に対する最適投資が増加し, 反応資源投資が減少し, センサの質が向上することを示した。
また,攻撃者が低攻撃成功確率しか達成できない場合,攻撃者の性能向上は,センサが採用されていないベースラインと比較して最大であることを示す。
関連論文リスト
- Benchmarking Misuse Mitigation Against Covert Adversaries [80.74502950627736]
既存の言語モデルの安全性評価は、オーバースト攻撃と低レベルのタスクに重点を置いている。
我々は、隠蔽攻撃と対応する防御の評価を自動化するデータ生成パイプラインである、ステートフルディフェンスのためのベンチマーク(BSD)を開発した。
評価の結果,分解攻撃は有効な誤用防止剤であり,その対策としてステートフルディフェンスを強調した。
論文 参考訳(メタデータ) (2025-06-06T17:33:33Z) - A Quantal Response Analysis of Defender-Attacker Sequential Security Games [1.3022753212679383]
2つのサイトと、ディフェンダーとアタッカーの間のシーケンシャルゲームを含むシナリオを探索する。
攻撃の目的は、防御者のセキュリティ投資を考慮して、防御者の期待する損失を最大化するサイトをターゲットにすることである。
我々は、人間が効率的な(純粋な)戦略を選択する際にエラーを犯す量子的行動バイアスを考察する。
論文 参考訳(メタデータ) (2024-08-02T00:40:48Z) - Fast Preemption: Forward-Backward Cascade Learning for Efficient and Transferable Preemptive Adversarial Defense [13.252842556505174]
高速プリエンプション(Fast Preemption)は、最先端の堅牢性と転送可能性を達成する一方で、効率上の課題を克服する、新しい先制敵防衛である。
わずか3イテレーションで実行することで、Fast Preemptionは既存のトレーニング時間、テスト時間、プリエンプティブディフェンスを上回っます。
論文 参考訳(メタデータ) (2024-07-22T10:23:44Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - OASIS: Offsetting Active Reconstruction Attacks in Federated Learning [14.644814818768172]
Federated Learning(FL)は、ユーザプライバシ保護の可能性に関して、大きな注目を集めている。
近年の研究では、FLプロトコルがアクティブリコンストラクションアタックによって容易に損なわれることが示されている。
本稿では,画像拡張に基づく防御機構を提案し,能動的再建攻撃を効果的に防止する。
論文 参考訳(メタデータ) (2023-11-23T00:05:17Z) - Stealthy Backdoor Attack via Confidence-driven Sampling [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Mitigating Gradient-based Adversarial Attacks via Denoising and
Compression [7.305019142196582]
深層ニューラルネットワークに対する勾配に基づく逆攻撃は深刻な脅威となる。
それらは、任意のネットワークのテストデータに不可避な摂動を追加することでデプロイできる。
デノイジングと寸法減少は、そのような攻撃に対抗するために調査された2つの異なる方法である。
論文 参考訳(メタデータ) (2021-04-03T22:57:01Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。