論文の概要: Anomaly Detection of Test-Time Evasion Attacks using Class-conditional
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2105.10101v1
- Date: Fri, 21 May 2021 02:51:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:11:17.983965
- Title: Anomaly Detection of Test-Time Evasion Attacks using Class-conditional
Generative Adversarial Networks
- Title(参考訳): クラス条件生成逆ネットワークを用いたテスト時間侵入攻撃の異常検出
- Authors: Hang Wang, David J. Miller, George Kesidis
- Abstract要約: 本稿では,GAN(Class Conditional Generative Adversaratives)に基づく攻撃検出手法を提案する。
我々は、Auxiliary GAN (ACGAN) によって予測されたクラスラベルに条件付されたクリーンデータの分布をモデル化する。
異なるTTE攻撃手法による画像分類データセットの実験により,本手法が最先端検出法より優れていることが示された。
- 参考スコア(独自算出の注目度): 21.023722317810805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have been shown vulnerable to adversarial
(Test-Time Evasion (TTE)) attacks which, by making small changes to the input,
alter the DNN's decision. We propose an attack detector based on
class-conditional Generative Adversarial Networks (GANs). We model the
distribution of clean data conditioned on the predicted class label by an
Auxiliary Classifier GAN (ACGAN). Given a test sample and its predicted class,
three detection statistics are calculated using the ACGAN Generator and
Discriminator. Experiments on image classification datasets under different TTE
attack methods show that our method outperforms state-of-the-art detection
methods. We also investigate the effectiveness of anomaly detection using
different DNN layers (input features or internal-layer features) and
demonstrate that anomalies are harder to detect using features closer to the
DNN's output layer.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、入力に小さな変更を加えることでDNNの決定を変化させる敵(TTE)攻撃に対して脆弱であることが示されている。
本稿では,クラス条件付きジェネレーティブ・アドバイサル・ネットワーク(GAN)に基づく攻撃検出手法を提案する。
本稿では,Auxiliary Classifier GAN (ACGAN) を用いて,予測クラスラベルに条件付きクリーンデータの分布をモデル化する。
テストサンプルとその予測クラスが与えられた場合,ACGANジェネレータとディスクリミネータを用いて3つの検出統計値を算出する。
異なるTTE攻撃手法による画像分類データセットの実験により,本手法が最先端検出法より優れていることが示された。
また,異なるDNN層を用いた異常検出の有効性について検討し,DNNの出力層に近い特徴を用いた異常検出が困難であることを示す。
関連論文リスト
- DOC-NAD: A Hybrid Deep One-class Classifier for Network Anomaly
Detection [0.0]
ネットワーク侵入検知システム(NIDS)の検出能力を高めるために機械学習アプローチが用いられている。
最近の研究は、バイナリとマルチクラスのネットワーク異常検出タスクに従うことで、ほぼ完璧な性能を実現している。
本稿では,ネットワークデータサンプルの学習のみによるネットワーク侵入検出のためのDeep One-Class (DOC)分類器を提案する。
論文 参考訳(メタデータ) (2022-12-15T00:08:05Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Training a Bidirectional GAN-based One-Class Classifier for Network
Intrusion Detection [8.158224495708978]
既存の生成逆数ネットワーク(GAN)は、主に実物から合成サンプルを作成するために使用される。
提案手法では,Bidirectional GAN (Bi-GAN) に基づく一級分類器として,訓練されたエンコーダ識別器を構築した。
実験結果から,提案手法はネットワーク侵入検出タスクにおいて有効であることが示唆された。
論文 参考訳(メタデータ) (2022-02-02T23:51:11Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Contextual-Bandit Anomaly Detection for IoT Data in Distributed
Hierarchical Edge Computing [65.78881372074983]
IoTデバイスは複雑なディープニューラルネットワーク(DNN)モデルにはほとんど余裕がなく、異常検出タスクをクラウドにオフロードすることは長い遅延を引き起こす。
本稿では,分散階層エッジコンピューティング(HEC)システムを対象とした適応型異常検出手法のデモと構築を行う。
提案手法は,検出タスクをクラウドにオフロードした場合と比較して,精度を犠牲にすることなく検出遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-04-15T06:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。