論文の概要: A General Framework For Detecting Anomalous Inputs to DNN Classifiers
- arxiv url: http://arxiv.org/abs/2007.15147v3
- Date: Thu, 17 Jun 2021 15:04:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 19:59:45.342994
- Title: A General Framework For Detecting Anomalous Inputs to DNN Classifiers
- Title(参考訳): DNN分類器への異常入力を検出する汎用フレームワーク
- Authors: Jayaram Raghuram, Varun Chandrasekaran, Somesh Jha, Suman Banerjee
- Abstract要約: 本稿では,内部のディープニューラルネットワーク層表現に基づく教師なし異常検出フレームワークを提案する。
我々は,強力な逆攻撃とOOD入力を用いた画像分類データセットについて,提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 37.79389209020564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting anomalous inputs, such as adversarial and out-of-distribution (OOD)
inputs, is critical for classifiers (including deep neural networks or DNNs)
deployed in real-world applications. While prior works have proposed various
methods to detect such anomalous samples using information from the internal
layer representations of a DNN, there is a lack of consensus on a principled
approach for the different components of such a detection method. As a result,
often heuristic and one-off methods are applied for different aspects of this
problem. We propose an unsupervised anomaly detection framework based on the
internal DNN layer representations in the form of a meta-algorithm with
configurable components. We proceed to propose specific instantiations for each
component of the meta-algorithm based on ideas grounded in statistical testing
and anomaly detection. We evaluate the proposed methods on well-known image
classification datasets with strong adversarial attacks and OOD inputs,
including an adaptive attack that uses the internal layer representations of
the DNN (often not considered in prior work). Comparisons with five
recently-proposed competing detection methods demonstrates the effectiveness of
our method in detecting adversarial and OOD inputs.
- Abstract(参考訳): 逆数や外分布(OOD)入力などの異常な入力を検出することは、現実世界のアプリケーションにデプロイされる分類器(ディープニューラルネットワークやDNNを含む)にとって重要である。
従来の研究では,DNNの内部層表現からの情報を用いて異常なサンプルを検出する手法が提案されているが,検出方法の異なるコンポーネントに対する原則的アプローチにはコンセンサスがない。
結果として、しばしばヒューリスティックかつワンオフな手法がこの問題の様々な側面に適用される。
構成可能なコンポーネントを持つメタアルゴリズムの形で内部DNN層表現に基づく教師なし異常検出フレームワークを提案する。
本稿では,統計的テストと異常検出に基づくメタアルゴリズムの各コンポーネントに対して,特定のインスタンス化を提案する。
提案手法は,DNNの内部層表現を用いた適応攻撃を含む,強い敵対的攻撃とOOD入力を含むよく知られた画像分類データセットを用いて評価する。
最近提案されている5つの競合検出法との比較により,本手法の有効性が示された。
関連論文リスト
- On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - TracInAD: Measuring Influence for Anomaly Detection [0.0]
本稿では,TracInに基づく異常をフラグする新しい手法を提案する。
本研究では,変分オートエンコーダを用いて,テストポイントにおけるトレーニングポイントのサブサンプルの平均的な影響が,異常のプロキシとして有効であることを示す。
論文 参考訳(メタデータ) (2022-05-03T08:20:15Z) - iDECODe: In-distribution Equivariance for Conformal Out-of-distribution
Detection [24.518698391381204]
ディープニューラルネットワーク(DNN)のような機械学習手法は、しばしば信頼性の高い誤った予測を生成する。
そこで我々は,共形OOD検出に分配同値を用いたiDECODeを提案する。
画像と音声のデータセットを用いた実験により,iDECODeの有効性を実証し,その結果を得た。
論文 参考訳(メタデータ) (2022-01-07T05:21:40Z) - A Uniform Framework for Anomaly Detection in Deep Neural Networks [0.5099811144731619]
異常入力のクラスを3つ検討する。
1)DNNとは異なる分布からの自然な入力は、OOD(Out-of-Distribution)サンプルとして訓練される。
2) 攻撃者によるIDから生成された入力は、しばしば敵(AD)サンプルとして知られ、(3)無意味なデータから生成されたノイズ(NS)サンプルである。
事前学習したDNNに対して,これらすべての異常を検出することを目的としたフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-06T22:42:30Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Anomaly Detection of Test-Time Evasion Attacks using Class-conditional
Generative Adversarial Networks [21.023722317810805]
本稿では,GAN(Class Conditional Generative Adversaratives)に基づく攻撃検出手法を提案する。
我々は、Auxiliary GAN (ACGAN) によって予測されたクラスラベルに条件付されたクリーンデータの分布をモデル化する。
異なるTTE攻撃手法による画像分類データセットの実験により,本手法が最先端検出法より優れていることが示された。
論文 参考訳(メタデータ) (2021-05-21T02:51:58Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。