論文の概要: Non-Intrusive Detection of Adversarial Deep Learning Attacks via
Observer Networks
- arxiv url: http://arxiv.org/abs/2002.09772v1
- Date: Sat, 22 Feb 2020 21:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:10:49.733947
- Title: Non-Intrusive Detection of Adversarial Deep Learning Attacks via
Observer Networks
- Title(参考訳): オブザーバネットワークによる敵対的深層学習攻撃の非侵入検出
- Authors: Kirthi Shankar Sivamani, Rajeev Sahay, Aly El Gamal
- Abstract要約: 近年の研究では、深層学習モデルは逆入力に弱いことが示されている。
本稿では,主分類網を複数のバイナリ検出器で拡張することにより,逆入力を検出する新しい手法を提案する。
我々は、MNISTデータセットで99.5%、CIFAR-10データセットで97.5%の精度で検出する。
- 参考スコア(独自算出の注目度): 5.4572790062292125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that deep learning models are vulnerable to
specifically crafted adversarial inputs that are quasi-imperceptible to humans.
In this letter, we propose a novel method to detect adversarial inputs, by
augmenting the main classification network with multiple binary detectors
(observer networks) which take inputs from the hidden layers of the original
network (convolutional kernel outputs) and classify the input as clean or
adversarial. During inference, the detectors are treated as a part of an
ensemble network and the input is deemed adversarial if at least half of the
detectors classify it as so. The proposed method addresses the trade-off
between accuracy of classification on clean and adversarial samples, as the
original classification network is not modified during the detection process.
The use of multiple observer networks makes attacking the detection mechanism
non-trivial even when the attacker is aware of the victim classifier. We
achieve a 99.5% detection accuracy on the MNIST dataset and 97.5% on the
CIFAR-10 dataset using the Fast Gradient Sign Attack in a semi-white box setup.
The number of false positive detections is a mere 0.12% in the worst case
scenario.
- Abstract(参考訳): 近年の研究では、深層学習モデルは、人間に準受け容れない特定の敵の入力に対して脆弱であることが示されている。
本稿では,従来のネットワークの隠れた層(畳み込み型カーネル出力)から入力を受け取り,その入力をクリーンあるいは逆順に分類する複数のバイナリ検出器(observer network)を用いて,主分類ネットワークを拡張して,逆入力を検出する新しい手法を提案する。
推論中は、検出器はアンサンブルネットワークの一部として扱われ、検出器の少なくとも半数がそれを分類すると、入力は逆であるとみなされる。
提案手法は,検出プロセス中に元の分類網が変更されないため,クリーンサンプルと逆サンプルの分類精度のトレードオフに対処する。
複数のオブザーバネットワークを使用することで、攻撃者が被害者分類器を認識している場合でも、検出機構を非自明に攻撃することができる。
我々は、MNISTデータセットで99.5%、CIFAR-10データセットで97.5%の精度で、半ホワイトボックス設定でFast Gradient Sign Attackを使用する。
偽陽性検出の数は、最悪のケースでは0.12%に過ぎない。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Deep Neural Networks based Meta-Learning for Network Intrusion Detection [0.24466725954625884]
産業の異なるコンポーネントのデジタル化と先住民ネットワーク間の相互接続性は、ネットワーク攻撃のリスクを高めている。
コンピュータネットワークの予測モデルを構築するために使用されるデータには、スキュークラス分布と攻撃型の限定表現がある。
Information Fusion and Stacking Ensemble (INFUSE) という,ネットワーク侵入検出のための新しいディープニューラルネットワークベースのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-18T18:00:05Z) - DOC-NAD: A Hybrid Deep One-class Classifier for Network Anomaly
Detection [0.0]
ネットワーク侵入検知システム(NIDS)の検出能力を高めるために機械学習アプローチが用いられている。
最近の研究は、バイナリとマルチクラスのネットワーク異常検出タスクに従うことで、ほぼ完璧な性能を実現している。
本稿では,ネットワークデータサンプルの学習のみによるネットワーク侵入検出のためのDeep One-Class (DOC)分類器を提案する。
論文 参考訳(メタデータ) (2022-12-15T00:08:05Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。