論文の概要: Optimal Classification-based Anomaly Detection with Neural Networks: Theory and Practice
- arxiv url: http://arxiv.org/abs/2409.08521v1
- Date: Fri, 13 Sep 2024 03:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 17:48:25.293829
- Title: Optimal Classification-based Anomaly Detection with Neural Networks: Theory and Practice
- Title(参考訳): ニューラルネットワークを用いた最適分類に基づく異常検出:理論と実践
- Authors: Tian-Yi Zhou, Matthew Lau, Jizhou Chen, Wenke Lee, Xiaoming Huo,
- Abstract要約: 異常検出は、ネットワークセキュリティなど、多くのアプリケーション領域において重要な問題である。
我々の研究は、教師なしニューラルネットワークベースの異常検知器の最初の理論的保証を提供する。
- 参考スコア(独自算出の注目度): 28.550351633786384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anomaly detection is an important problem in many application areas, such as network security. Many deep learning methods for unsupervised anomaly detection produce good empirical performance but lack theoretical guarantees. By casting anomaly detection into a binary classification problem, we establish non-asymptotic upper bounds and a convergence rate on the excess risk on rectified linear unit (ReLU) neural networks trained on synthetic anomalies. Our convergence rate on the excess risk matches the minimax optimal rate in the literature. Furthermore, we provide lower and upper bounds on the number of synthetic anomalies that can attain this optimality. For practical implementation, we relax some conditions to improve the search for the empirical risk minimizer, which leads to competitive performance to other classification-based methods for anomaly detection. Overall, our work provides the first theoretical guarantees of unsupervised neural network-based anomaly detectors and empirical insights on how to design them well.
- Abstract(参考訳): 異常検出は、ネットワークセキュリティなど、多くのアプリケーション領域において重要な問題である。
教師なし異常検出のための多くのディープラーニング手法は、優れた経験的性能をもたらすが、理論的保証は欠如している。
異常検出を二項分類問題にキャストすることにより、合成異常を訓練した修正線形単位(ReLU)ニューラルネットワークの過大なリスクに対する非漸近上界と収束率を確立する。
過剰リスクに対する収束率は、文献の最小最適率と一致する。
さらに、この最適性を達成することができる合成異常の数について、下限と上限を提供する。
実践的な実装では,経験的リスク最小化器の探索を改善するためにいくつかの条件を緩和し,他の分類に基づく異常検出手法と競合する性能をもたらす。
全体として、我々の研究は、教師なしニューラルネットワークベースの異常検知器と、それらをうまく設計する方法に関する実証的な洞察を、初めて理論的に保証する。
関連論文リスト
- Network Topology Inference from Smooth Signals Under Partial Observability [17.491343739469627]
部分的に観測されたノードを持つ滑らかな信号からネットワークトポロジを推定することは、データサイエンスとエンジニアリングにおいて重要な問題である。
本稿では,列間隔正規化に基づく1次アルゴリズムフレームワークと,低ランク制約に基づく1次アルゴリズムフレームワークを提案する。
我々は、理論収束保証を確立し、アルゴリズムの線形収束率を実証する。
論文 参考訳(メタデータ) (2024-10-08T06:00:04Z) - On Excess Risk Convergence Rates of Neural Network Classifiers [8.329456268842227]
本稿では,ニューラルネットワークを用いた2値分類におけるプラグイン分類器の性能を,その過大なリスクによって測定した。
ニューラルネットワークの推定と近似特性を分析し,次元自由で均一な収束率を求める。
論文 参考訳(メタデータ) (2023-09-26T17:14:10Z) - The Boundaries of Verifiable Accuracy, Robustness, and Generalisation in
Deep Learning [73.5095051707364]
経験的リスクを最小限に抑えるため,古典的な分布に依存しないフレームワークとアルゴリズムを検討する。
理想的な安定かつ正確なニューラルネットワークの計算と検証が極めて難しいタスク群が存在することを示す。
論文 参考訳(メタデータ) (2023-09-13T16:33:27Z) - On the Minimal Adversarial Perturbation for Deep Neural Networks with
Provable Estimation Error [65.51757376525798]
敵の摂動の存在は、証明可能な堅牢性に関する興味深い研究ラインを開いた。
検証可能な結果は、コミットしたエラーを見積り、バウンドするものではない。
本稿では,最小対向摂動を求めるための2つの軽量戦略を提案する。
その結果, 提案手法は, 分類に近い試料の理論的距離とロバスト性を近似し, 敵攻撃に対する確実な保証が得られた。
論文 参考訳(メタデータ) (2022-01-04T16:40:03Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Second-Order Component Analysis for Fault Detection [0.0]
高次ニューラルネットワークは、元のデータやノイズ、異常から重要な情報をオーバーフィッティングし、学習するリスクをもたらす可能性がある。
本稿では,2次成分分析(SCA)と呼ばれる新しい故障検出手法を提案する。
論文 参考訳(メタデータ) (2021-03-12T14:25:37Z) - Nonconvex sparse regularization for deep neural networks and its
optimality [1.9798034349981162]
ディープニューラルネットワーク(DNN)推定器は、回帰と分類問題に対して最適な収束率を得ることができる。
スパースDNNに対する新たなペナル化推定法を提案する。
スパースペンタライズされた推定器は、様々な非パラメトリック回帰問題に対する最小収束率を適応的に達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T07:15:28Z) - Regularized Cycle Consistent Generative Adversarial Network for Anomaly
Detection [5.457279006229213]
本稿では, ニューラルネットワークを逆向きに訓練し, 異常なサンプルをよりよく認識するRCGAN(Regularized Cycle Consistent Generative Adversarial Network)を提案する。
実世界のデータと合成データの両方に対する実験結果から,我々のモデルが過去の異常検出ベンチマークにおいて有意かつ一貫した改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-01-18T03:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。