論文の概要: Adversarial Feature Selection against Evasion Attacks
- arxiv url: http://arxiv.org/abs/2005.12154v1
- Date: Mon, 25 May 2020 15:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:37:37.934913
- Title: Adversarial Feature Selection against Evasion Attacks
- Title(参考訳): 回避攻撃に対する敵対的特徴選択
- Authors: Fei Zhang, Patrick P.K. Chan, Battista Biggio, Daniel S. Yeung, Fabio
Roli
- Abstract要約: 本稿では,回避攻撃に対する分類器の安全性を向上させるための,新たな対向認識機能選択モデルを提案する。
このアプローチの効率的かつラッパーベースの実装に注力し、異なるアプリケーションの例でその音質を実験的に検証する。
- 参考スコア(独自算出の注目度): 17.98312950660093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pattern recognition and machine learning techniques have been increasingly
adopted in adversarial settings such as spam, intrusion and malware detection,
although their security against well-crafted attacks that aim to evade
detection by manipulating data at test time has not yet been thoroughly
assessed. While previous work has been mainly focused on devising
adversary-aware classification algorithms to counter evasion attempts, only few
authors have considered the impact of using reduced feature sets on classifier
security against the same attacks. An interesting, preliminary result is that
classifier security to evasion may be even worsened by the application of
feature selection. In this paper, we provide a more detailed investigation of
this aspect, shedding some light on the security properties of feature
selection against evasion attacks. Inspired by previous work on adversary-aware
classifiers, we propose a novel adversary-aware feature selection model that
can improve classifier security against evasion attacks, by incorporating
specific assumptions on the adversary's data manipulation strategy. We focus on
an efficient, wrapper-based implementation of our approach, and experimentally
validate its soundness on different application examples, including spam and
malware detection.
- Abstract(参考訳): パターン認識や機械学習技術は、スパム、侵入、マルウェア検出といった敵の環境でますます採用されているが、テスト時にデータを操作して検出を回避するための、巧妙な攻撃に対するセキュリティはまだ十分に評価されていない。
従来の研究は主に回避策に対抗するために敵意識の分類アルゴリズムを考案することに焦点を当ててきたが、同じ攻撃に対する分類器セキュリティに対する機能セットの削減による影響を考慮した著者は少ない。
興味深い予備的な結果は、機能選択の適用により、回避に対する分類器のセキュリティはさらに悪化する可能性があることである。
本稿では,回避攻撃に対する特徴選択のセキュリティ特性に光を当てながら,この点についてより詳細な調査を行う。
本研究は,従来の敵認識分類器の研究に触発されて,敵のデータ操作戦略に特定の仮定を組み込むことで,回避攻撃に対する分類器の安全性を向上させる新しい敵認識特徴選択モデルを提案する。
提案手法の効率的なラッパーベース実装に注目し,スパムやマルウェア検出など,アプリケーション例の健全性を実験的に検証した。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing [3.736916304884177]
本稿では,ランダムな平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,入力のランダム化にガウスノイズやラプラスノイズを使う代わりに,ランダム化アブレーションに基づく平滑化方式を提案する。
BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-17T10:30:25Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Protecting Classifiers From Attacks. A Bayesian Approach [0.9449650062296823]
我々は,攻撃者の行動に関する正確な知識の欠如を,敵対的リスク分析を用いて考慮した代替的ベイズ的枠組みを提供する。
本研究では, 近似ベイズ計算に基づくサンプリング手法を提案する。
大規模問題に対して、微分可能な分類器を扱う際に使用できる代替のスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-18T21:21:56Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。