論文の概要: Selective and Features based Adversarial Example Detection
- arxiv url: http://arxiv.org/abs/2103.05354v1
- Date: Tue, 9 Mar 2021 11:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 01:22:43.438046
- Title: Selective and Features based Adversarial Example Detection
- Title(参考訳): 選択的および特徴に基づく逆例検出
- Authors: Ahmed Aldahdooh, Wassim Hamidouche, and Olivier D\'eforges
- Abstract要約: Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
- 参考スコア(独自算出の注目度): 12.443388374869745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security-sensitive applications that relay on Deep Neural Networks (DNNs) are
vulnerable to small perturbations crafted to generate Adversarial Examples
(AEs) that are imperceptible to human and cause DNN to misclassify them. Many
defense and detection techniques have been proposed. The state-of-the-art
detection techniques have been designed for specific attacks or broken by
others, need knowledge about the attacks, are not consistent, increase model
parameters overhead, are time-consuming, or have latency in inference time. To
trade off these factors, we propose a novel unsupervised detection mechanism
that uses the selective prediction, processing model layers outputs, and
knowledge transfer concepts in a multi-task learning setting. It is called
Selective and Feature based Adversarial Detection (SFAD). Experimental results
show that the proposed approach achieves comparable results to the
state-of-the-art methods against tested attacks in white box scenario and
better results in black and gray boxes scenarios. Moreover, results show that
SFAD is fully robust against High Confidence Attacks (HCAs) for MNIST and
partially robust for CIFAR-10 datasets.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を中継するセキュリティに敏感なアプリケーションは、人間には受け入れられず、DNNがそれらを誤分類させる原因となる敵の例(AE)を生成するために作られた小さな摂動に対して脆弱です。
多くの防御および検出技術が提案されている。
state-of-the-art検出テクニックは、特定の攻撃や他人による破壊、攻撃に関する知識の必要、一貫性の欠如、モデルパラメータのオーバーヘッドの増大、時間消費、あるいは推論時間の遅延のために設計されている。
これらの要因をトレードオフするために,多タスク学習環境における選択予測,処理モデル層出力,知識伝達概念を用いた教師なし検出機構を提案する。
Selective and Feature based Adversarial Detection (SFAD)と呼ばれる。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
さらに,SFAD は MNIST の High Confidence Attacks (HCAs) に対して完全に堅牢であり,CIFAR-10 データセットに対して部分的に堅牢であることを示す。
関連論文リスト
- Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Anomaly Detection of Test-Time Evasion Attacks using Class-conditional
Generative Adversarial Networks [21.023722317810805]
本稿では,GAN(Class Conditional Generative Adversaratives)に基づく攻撃検出手法を提案する。
我々は、Auxiliary GAN (ACGAN) によって予測されたクラスラベルに条件付されたクリーンデータの分布をモデル化する。
異なるTTE攻撃手法による画像分類データセットの実験により,本手法が最先端検出法より優れていることが示された。
論文 参考訳(メタデータ) (2021-05-21T02:51:58Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。