論文の概要: A Uniform Framework for Anomaly Detection in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2110.03092v1
- Date: Wed, 6 Oct 2021 22:42:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:08:19.739659
- Title: A Uniform Framework for Anomaly Detection in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける異常検出のための一様枠組み
- Authors: Fangzhen Zhao, Chenyi Zhang, Naipeng Dong, Zefeng You, Zhenxin Wu
- Abstract要約: 異常入力のクラスを3つ検討する。
1)DNNとは異なる分布からの自然な入力は、OOD(Out-of-Distribution)サンプルとして訓練される。
2) 攻撃者によるIDから生成された入力は、しばしば敵(AD)サンプルとして知られ、(3)無意味なデータから生成されたノイズ(NS)サンプルである。
事前学習したDNNに対して,これらすべての異常を検出することを目的としたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.5099811144731619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNN) can achieve high performance when applied to
In-Distribution (ID) data which come from the same distribution as the training
set. When presented with anomaly inputs not from the ID, the outputs of a DNN
should be regarded as meaningless. However, modern DNN often predict anomaly
inputs as an ID class with high confidence, which is dangerous and misleading.
In this work, we consider three classes of anomaly inputs, (1) natural inputs
from a different distribution than the DNN is trained for, known as
Out-of-Distribution (OOD) samples, (2) crafted inputs generated from ID by
attackers, often known as adversarial (AD) samples, and (3) noise (NS) samples
generated from meaningless data. We propose a framework that aims to detect all
these anomalies for a pre-trained DNN. Unlike some of the existing works, our
method does not require preprocessing of input data, nor is it dependent to any
known OOD set or adversarial attack algorithm. Through extensive experiments
over a variety of DNN models for the detection of aforementioned anomalies, we
show that in most cases our method outperforms state-of-the-art anomaly
detection methods in identifying all three classes of anomalies.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)は、トレーニングセットと同じ分布から得られるIn-Distribution(ID)データに適用した場合、高いパフォーマンスを達成することができる。
id からの異常入力が提示された場合、dnn の出力は無意味と見なされるべきである。
しかし、現代のDNNは、しばしば異常入力を高い信頼度を持つIDクラスとして予測し、危険で誤解を招く。
本研究では,(1)DNNと異なる分布からの自然な入力をトレーニングし,そのサンプルをOOD(Out-of-Distribution)、(2)攻撃者によるIDから生成された入力をAD(Adversarial)サンプル,(3)無意味なデータから生成されたノイズ(NS)サンプルという,3種類の異常入力を考察する。
事前学習したDNNに対して,これらの異常を検知するフレームワークを提案する。
既存の研究と異なり、我々の手法は入力データの事前処理を必要としないし、既知のOODセットや敵攻撃アルゴリズムにも依存しない。
上記の異常検出のための様々なdnnモデルに関する広範囲な実験を通じて,本手法が3種類の異常の同定において最先端の異常検出法を上回っていることを示す。
関連論文リスト
- Towards Zero-shot 3D Anomaly Localization [58.62650061201283]
3DzALは3D異常検出とローカライゼーションのためのパッチレベルの新しいコントラスト学習フレームワークである。
3DzALは最先端の異常検出および局所化性能より優れていることを示す。
論文 参考訳(メタデータ) (2024-12-05T16:25:27Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Unraveling the "Anomaly" in Time Series Anomaly Detection: A
Self-supervised Tri-domain Solution [89.16750999704969]
異常ラベルは時系列異常検出において従来の教師付きモデルを妨げる。
自己教師型学習のような様々なSOTA深層学習技術がこの問題に対処するために導入されている。
自己教師型3領域異常検出器(TriAD)を提案する。
論文 参考訳(メタデータ) (2023-11-19T05:37:18Z) - iDECODe: In-distribution Equivariance for Conformal Out-of-distribution
Detection [24.518698391381204]
ディープニューラルネットワーク(DNN)のような機械学習手法は、しばしば信頼性の高い誤った予測を生成する。
そこで我々は,共形OOD検出に分配同値を用いたiDECODeを提案する。
画像と音声のデータセットを用いた実験により,iDECODeの有効性を実証し,その結果を得た。
論文 参考訳(メタデータ) (2022-01-07T05:21:40Z) - Double-Adversarial Activation Anomaly Detection: Adversarial
Autoencoders are Anomaly Generators [0.0]
異常検出は、固有のクラス不均衡のため、機械学習アルゴリズムにとって難しいタスクである。
生成モデルに着想を得て,ニューラルネットワークの隠れ活性化の解析を行い,DA3Dと呼ばれる新しい教師なし異常検出手法を提案する。
論文 参考訳(メタデータ) (2021-01-12T18:07:34Z) - A Survey on Assessing the Generalization Envelope of Deep Neural
Networks: Predictive Uncertainty, Out-of-distribution and Adversarial Samples [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くのアプリケーションで最先端のパフォーマンスを達成する。
入力を受けたDNNが、通常、その決定基準が不透明であるため、正しい出力を提供するかどうかを事前に判断することは困難である。
本調査は,機械学習手法,特にDNNの一般化性能について,大規模フレームワーク内の3つの分野を関連づけるものである。
論文 参考訳(メタデータ) (2020-08-21T09:12:52Z) - A General Framework For Detecting Anomalous Inputs to DNN Classifiers [37.79389209020564]
本稿では,内部のディープニューラルネットワーク層表現に基づく教師なし異常検出フレームワークを提案する。
我々は,強力な逆攻撃とOOD入力を用いた画像分類データセットについて,提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-07-29T22:57:57Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。