論文の概要: Identifying Adversary Characteristics from an Observed Attack
- arxiv url: http://arxiv.org/abs/2603.05625v1
- Date: Thu, 05 Mar 2026 19:32:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.395446
- Title: Identifying Adversary Characteristics from an Observed Attack
- Title(参考訳): 観測された攻撃からの敵特性の同定
- Authors: Soyon Choi, Scott Alfeld, Meiyi Ma,
- Abstract要約: 自動意思決定システムで使用される場合、機械学習(ML)モデルはデータ操作攻撃に対して脆弱である。
本稿では,攻撃者の特徴を識別する枠組みを提示し,実証した。
この課題に対処するために、最も可能性の高い攻撃者を特定するためのドメインに依存しないフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.990047390782827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When used in automated decision-making systems, machine learning (ML) models are vulnerable to data-manipulation attacks. Some defense mechanisms (e.g., adversarial regularization) directly affect the ML models while others (e.g., anomaly detection) act within the broader system. In this paper we consider a different task for defending the adversary, focusing on the attacker, rather than the attack. We present and demonstrate a framework for identifying characteristics about the attacker from an observed attack. We prove that, without additional knowledge, the attacker is non-identifiable (multiple potential attackers would perform the same observed attack). To address this challenge, we propose a domain-agnostic framework to identify the most probable attacker. This framework aids the defender in two ways. First, knowledge about the attacker can be leveraged for exogenous mitigation (i.e., addressing the vulnerability by altering the decision-making system outside the learning algorithm and/or limiting the attacker's capability). Second, when implementing defense methods that directly affect the learning process (e.g., adversarial regularization), knowledge of the specific attacker improves performance. We present the details of our framework and illustrate its applicability through specific instantiations on a variety of learners.
- Abstract(参考訳): 自動意思決定システムで使用される場合、機械学習(ML)モデルはデータ操作攻撃に対して脆弱である。
いくつかの防御機構(例えば、逆正則化)はMLモデルに直接影響を与え、他の防御機構(例えば、異常検出)はより広いシステム内で作用する。
本稿では、攻撃ではなく攻撃に焦点をあてて、敵を守るための異なるタスクについて考察する。
本稿では,攻撃者の特徴を識別する枠組みを提示し,実証した。
我々は、追加の知識がなければ、攻撃者は識別できない(複数の潜在的な攻撃者が同じ攻撃を行う)ことを証明している。
この課題に対処するために、最も可能性の高い攻撃者を特定するためのドメインに依存しないフレームワークを提案する。
この枠組みはディフェンダーを2つの方法で支援する。
第一に、攻撃者に関する知識は、外因性軽減(すなわち、学習アルゴリズムの外で意思決定システムを変更し、攻撃者の能力を制限することで脆弱性に対処する)に活用することができる。
第二に、学習プロセス(例えば、敵正規化)に直接影響を与える防御方法を実装する場合、特定の攻撃者の知識が性能を向上させる。
本稿では,本フレームワークの詳細と,各種学習者の特定インスタンス化による適用性について述べる。
関連論文リスト
- Behavior-Aware and Generalizable Defense Against Black-Box Adversarial Attacks for ML-Based IDS [2.179313476241343]
ブラックボックスの敵攻撃は、機械学習ベースの侵入検知システムによってますます標的にされている。
本稿では,現実的なブラックボックスシナリオに特化して設計された,軽量かつプロアクティブな防御機構であるAdaptive Feature Poisoningを提案する。
我々は攻撃者を混乱させ、攻撃の有効性を低下させ、検出性能を維持する能力を評価する。
論文 参考訳(メタデータ) (2025-12-15T16:29:23Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Adversary Aware Continual Learning [3.3439097577935213]
Adversaryは、テスト時に特定のタスクやクラスを意図的に忘れるように、少量の誤報をモデルに導入することができる。
我々は,攻撃者のバックドアパターンを人間には認識不能にすることで,攻撃者の主要な強みを隠蔽し,攻撃者の知覚不能パターンを超過する知覚的(強者)パターンを学習することを提案する。
提案手法は,攻撃者の目標タスク,攻撃者の目標クラス,攻撃者の許容できないパターンを知らずに,クラスインクリメンタル学習アルゴリズムの性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2023-04-27T19:49:50Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Zero-shot learning approach to adaptive Cybersecurity using Explainable
AI [0.5076419064097734]
本稿では,セキュリティ情報やイベント管理 (SIEM) や侵入検知 (IDS) といったサイバーセキュリティシステムで直面するアラーム浸水問題に対処する新しいアプローチを提案する。
我々は機械学習(ML)にゼロショット学習法を適用し、MLモデルによって生成された異常の予測に説明を活用する。
このアプローチでは、攻撃に関する事前の知識がなければ、それを識別し、分類に寄与する特徴を解読し、特定のカテゴリで攻撃をバケット化しようとする。
論文 参考訳(メタデータ) (2021-06-21T06:29:13Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。