論文の概要: Attack Tree Analysis for Adversarial Evasion Attacks
- arxiv url: http://arxiv.org/abs/2312.16957v1
- Date: Thu, 28 Dec 2023 11:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 16:28:34.638446
- Title: Attack Tree Analysis for Adversarial Evasion Attacks
- Title(参考訳): 敵対的回避攻撃に対する攻撃木解析
- Authors: Yuki Yamaguchi and Toshiaki Aoki
- Abstract要約: MLベースシステムの導入において、ML固有の攻撃のリスクを分析する必要がある。
本研究では,攻撃木を用いた避難攻撃のリスクを定量的に評価する手法を提案する。
- 参考スコア(独自算出の注目度): 1.0442919217572477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the evolution of deep learning has promoted the application of
machine learning (ML) to various systems. However, there are ML systems, such
as autonomous vehicles, that cause critical damage when they misclassify.
Conversely, there are ML-specific attacks called adversarial attacks based on
the characteristics of ML systems. For example, one type of adversarial attack
is an evasion attack, which uses minute perturbations called "adversarial
examples" to intentionally misclassify classifiers. Therefore, it is necessary
to analyze the risk of ML-specific attacks in introducing ML base systems. In
this study, we propose a quantitative evaluation method for analyzing the risk
of evasion attacks using attack trees. The proposed method consists of the
extension of the conventional attack tree to analyze evasion attacks and the
systematic construction method of the extension. In the extension of the
conventional attack tree, we introduce ML and conventional attack nodes to
represent various characteristics of evasion attacks. In the systematic
construction process, we propose a procedure to construct the attack tree. The
procedure consists of three steps: (1) organizing information about attack
methods in the literature to a matrix, (2) identifying evasion attack scenarios
from methods in the matrix, and (3) constructing the attack tree from the
identified scenarios using a pattern. Finally, we conducted experiments on
three ML image recognition systems to demonstrate the versatility and
effectiveness of our proposed method.
- Abstract(参考訳): 近年,ディープラーニングの進化により,機械学習(ML)の様々なシステムへの応用が促進されている。
しかし、自動運転車のようなMLシステムは、それが誤分類された場合に重大なダメージを与える。
逆に、MLシステムの特徴に基づく敵攻撃と呼ばれるML固有の攻撃がある。
例えば、攻撃の1つのタイプは回避攻撃であり、意図的に分類器を誤分類するために"adversarial examples"と呼ばれる微小摂動を使用する。
したがって、MLベースシステムの導入において、ML固有の攻撃のリスクを分析する必要がある。
本研究では,攻撃木を用いた回避攻撃のリスクを定量的に評価する手法を提案する。
提案手法は,回避攻撃を解析するための従来の攻撃木の拡張と,拡張の体系的構築方法から構成される。
従来の攻撃木の拡張では、回避攻撃の様々な特徴を表現するためにMLと従来の攻撃ノードを導入する。
システム構築過程において,攻撃木を構築するための手順を提案する。
本手法は,(1)文献中の攻撃方法に関する情報をマトリックスに整理すること,(2)マトリックス内の手法から回避攻撃シナリオを識別すること,(3)パターンを用いて特定シナリオから攻撃ツリーを構築すること,の3段階からなる。
最後に,3つのML画像認識システムを用いて,提案手法の有効性と有効性を示す実験を行った。
関連論文リスト
- AutoJailbreak: Exploring Jailbreak Attacks and Defenses through a Dependency Lens [83.08119913279488]
本稿では,ジェイルブレイク攻撃と防衛技術における依存関係の体系的解析について述べる。
包括的な、自動化された、論理的な3つのフレームワークを提案します。
このアンサンブル・ジェイルブレイク・アタックと防衛の枠組みは,既存の研究を著しく上回る結果となった。
論文 参考訳(メタデータ) (2024-06-06T07:24:41Z) - No Two Devils Alike: Unveiling Distinct Mechanisms of Fine-tuning Attacks [13.610008743851157]
我々は、最も代表的な2つの攻撃方法の分析を行う: Explicit Harmful Attack (EHA)とIdentity-Shifting Attack (ISA)である。
ISAとは異なり、EHAは有害な認識段階を積極的に狙う傾向にあり、EHAとISAは後者の2段階を妨害するが、攻撃の程度とメカニズムは著しく異なる。
論文 参考訳(メタデータ) (2024-05-25T13:38:40Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Threat Detection for General Social Engineering Attack Using Machine
Learning Techniques [7.553860996595933]
本稿では,機械学習(ML)技術を用いた一般社会工学(SE)攻撃の脅威検出について検討する。
実験結果と分析の結果,1) ML手法は一般SE攻撃の検出に有効であり,いくつかのMLモデルは非常に有効である。
論文 参考訳(メタデータ) (2022-03-15T14:18:22Z) - Zero-shot learning approach to adaptive Cybersecurity using Explainable
AI [0.5076419064097734]
本稿では,セキュリティ情報やイベント管理 (SIEM) や侵入検知 (IDS) といったサイバーセキュリティシステムで直面するアラーム浸水問題に対処する新しいアプローチを提案する。
我々は機械学習(ML)にゼロショット学習法を適用し、MLモデルによって生成された異常の予測に説明を活用する。
このアプローチでは、攻撃に関する事前の知識がなければ、それを識別し、分類に寄与する特徴を解読し、特定のカテゴリで攻撃をバケット化しようとする。
論文 参考訳(メタデータ) (2021-06-21T06:29:13Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Evaluating and Improving Adversarial Robustness of Machine
Learning-Based Network Intrusion Detectors [21.86766733460335]
本研究では,ML ベースの NIDS のロバスト性を評価するため,グレー/ブラックボックスのトラフィック空間攻撃に関する最初の系統的研究を行った。
私たちの仕事は、以下の点で以前のものより優れています。
また,システムロバスト性を改善するために,敵攻撃に対する防御策を提案する。
論文 参考訳(メタデータ) (2020-05-15T13:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。