論文の概要: R2-AD2: Detecting Anomalies by Analysing the Raw Gradient
- arxiv url: http://arxiv.org/abs/2206.10259v1
- Date: Tue, 21 Jun 2022 11:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 20:07:33.532768
- Title: R2-AD2: Detecting Anomalies by Analysing the Raw Gradient
- Title(参考訳): R2-AD2:生起勾配解析による異常検出
- Authors: Jan-Philipp Schulze, Philip Sperl, Ana R\u{a}du\c{t}oiu, Carla
Sagebiel, Konstantin B\"ottinger
- Abstract要約: 本稿では,R2-AD2と呼ばれる新しい半教師付き異常検出手法を提案する。
複数の訓練段階における勾配の時間分布を解析することにより,点異常を確実に検出する。
R2-AD2は純粋にデータ駆動方式で動作するため、異常検出の様々な重要なユースケースに容易に適用できる。
- 参考スコア(独自算出の注目度): 0.6299766708197883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks follow a gradient-based learning scheme, adapting their
mapping parameters by back-propagating the output loss. Samples unlike the ones
seen during training cause a different gradient distribution. Based on this
intuition, we design a novel semi-supervised anomaly detection method called
R2-AD2. By analysing the temporal distribution of the gradient over multiple
training steps, we reliably detect point anomalies in strict semi-supervised
settings. Instead of domain dependent features, we input the raw gradient
caused by the sample under test to an end-to-end recurrent neural network
architecture. R2-AD2 works in a purely data-driven way, thus is readily
applicable in a variety of important use cases of anomaly detection.
- Abstract(参考訳): ニューラルネットワークは勾配に基づく学習スキームに従い、出力損失をバックプロパゲートすることでマッピングパラメータを適応する。
トレーニング中に見られるものとは異なり、サンプルは異なる勾配分布を引き起こす。
この直感に基づいて、R2-AD2と呼ばれる新しい半教師付き異常検出法を設計する。
複数のトレーニングステップにおける勾配の時間的分布を解析することにより,厳密な半教師付き設定における点異常を確実に検出する。
ドメイン依存機能の代わりに、テスト中のサンプルによって引き起こされる生の勾配をエンドツーエンドのリカレントニューラルネットワークアーキテクチャに入力する。
R2-AD2は純粋にデータ駆動型であり、異常検出の様々な重要なユースケースに容易に適用できる。
関連論文リスト
- Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Learning Compact Features via In-Training Representation Alignment [19.273120635948363]
各エポックでは、トレーニングセットからサンプリングしたミニバッチを用いて損失関数の真の勾配を推定する。
In-Training Representation Alignment (ITRA) を提案する。
また,特徴表現学習における一致損失の望ましい影響を厳密に分析する。
論文 参考訳(メタデータ) (2022-11-23T22:23:22Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - A Two-Block RNN-based Trajectory Prediction from Incomplete Trajectory [14.725386295605666]
本稿では,ベイズフィルタフレームワークの推論ステップを近似した2ブロックRNNモデルを提案する。
提案手法は,3つのベースライン計算法と比較して予測精度を向上することを示す。
また,提案手法は誤り検出がない場合の基準値よりも予測精度がよいことを示す。
論文 参考訳(メタデータ) (2022-03-14T13:39:44Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - DIFFnet: Diffusion parameter mapping network generalized for input
diffusion gradient schemes and bvalues [6.7487278071108525]
DIFFnetと呼ばれる新しいディープニューラルネットワークが開発され、拡散重み付けされた信号の一般化再構成ツールとして機能する。
DIFFnetは拡散テンソルイメージング(DIFFnetDTI)およびニューロライト配向分散と密度イメージング(DIFFnetNODDI)のために評価される。
その結果, ほぼ少ない処理時間で拡散パラメータの正確な再構成が得られた。
論文 参考訳(メタデータ) (2021-02-04T07:45:36Z) - Uncertainty Inspired RGB-D Saliency Detection [70.50583438784571]
本稿では,データラベリングプロセスから学習することで,RGB-D値検出の不確実性を利用した最初のフレームワークを提案する。
そこで本研究では,確率的RGB-Dサリエンシ検出を実現するために,サリエンシデータラベリングプロセスにインスパイアされた生成アーキテクチャを提案する。
6つの挑戦的RGB-Dベンチマークデータセットの結果から,サリエンシマップの分布を学習する際のアプローチの優れた性能が示された。
論文 参考訳(メタデータ) (2020-09-07T13:01:45Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - The Impact of the Mini-batch Size on the Variance of Gradients in
Stochastic Gradient Descent [28.148743710421932]
ミニバッチ勾配勾配(SGD)アルゴリズムは機械学習モデルのトレーニングに広く用いられている。
線形回帰および2層線形ネットワーク下でのSGDダイナミクスについて検討し,より深い線形ネットワークへの拡張を容易にする。
論文 参考訳(メタデータ) (2020-04-27T20:06:11Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。