論文の概要: Re Learning Memory Guided Normality for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2101.12382v1
- Date: Fri, 29 Jan 2021 03:28:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 15:58:49.192278
- Title: Re Learning Memory Guided Normality for Anomaly Detection
- Title(参考訳): 異常検出のための学習記憶誘導正規性
- Authors: Kevin Stephen, Varun Menon
- Abstract要約: 筆者らは、これがネットワークがパターンを学習するのに役立つと主張している。
原型記憶項目のt-SNEプロットの助けを借りて有効性を検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The authors have introduced a novel method for unsupervised anomaly detection
that utilises a newly introduced Memory Module in their paper. We validate the
authors claim that this helps improve performance by helping the network learn
prototypical patterns, and uses the learnt memory to reduce the representation
capacity of Convolutional Neural Networks. Further, we validate the efficacy of
two losses introduced by the authors, Separateness Loss and Compactness Loss
presented to increase the discriminative power of the memory items and the
deeply learned features. We test the efficacy with the help of t-SNE plots of
the memory items.
- Abstract(参考訳): 著者らは,新たに導入されたメモリモジュールを論文で活用する,教師なし異常検出の新しい手法を導入した。
筆者らは,ネットワークが先駆的なパターンを学習し,学習メモリを用いて畳み込みニューラルネットワークの表現能力を低減することで,パフォーマンスの向上に寄与すると主張する。
さらに,著者らが導入した2つの損失,分離性損失とコンパクト性損失の有効性を検証し,記憶項目の識別能力と深層学習機能の向上を図った。
記憶項目のt-SNEプロットの助けを借りて有効性を検証する。
関連論文リスト
- Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - MsMemoryGAN: A Multi-scale Memory GAN for Palm-vein Adversarial Purification [40.80205521005344]
本稿では,MsMemoryGANという新しい防衛モデルを提案する。
MsMemoryGANは、メモリに記録された通常のパターンのより少ない原型要素を使用することで、入力を再構築することを学ぶ。
本手法では, 血管分類器が高い認識精度を達成できるため, 様々な逆方向の摂動を除去する。
論文 参考訳(メタデータ) (2024-08-20T09:46:30Z) - Iterative Ensemble Training with Anti-Gradient Control for Mitigating Memorization in Diffusion Models [20.550324116099357]
拡散モデルは、新規で高品質なサンプルを生成できることで知られている。
最近のメモリ緩和手法は、クロスモーダル生成タスクにおけるテキストモダリティ問題にのみ焦点をあてるか、あるいはデータ拡張戦略を利用するかのどちらかである。
本稿では,視覚的モダリティの観点からの拡散モデルのための新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T02:19:30Z) - Adversarially Diversified Rehearsal Memory (ADRM): Mitigating Memory Overfitting Challenge in Continual Learning [0.0]
継続的な学習は、それまでの知識を忘れずに、静止しないデータ分布を学習することに焦点を当てる。
リハーサルベースのアプローチは、破滅的な忘れに対処するために一般的に使用される。
本稿では、メモリ過度に適合する課題に対処するために、Adversarially Diversified Rehearsal Memoryを導入する。
論文 参考訳(メタデータ) (2024-05-20T06:56:43Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Map-based Experience Replay: A Memory-Efficient Solution to Catastrophic
Forgetting in Reinforcement Learning [15.771773131031054]
深層強化学習エージェントは、しばしば破滅的な忘れ込みに悩まされ、新しいデータをトレーニングする際に、入力空間の一部で以前見つかったソリューションを忘れる。
本稿では,Grow-When-Required(GWR)自己組織化ネットワークに基づく,認知に触発された新しいリプレイメモリ手法を提案する。
提案手法では, 状態ノードと遷移エッジの簡潔な環境モデルライクなネットワークに格納された遷移を整理し, 類似のサンプルをマージすることにより, メモリサイズを小さくし, サンプル間のペアワイズ距離を増大させる。
論文 参考訳(メタデータ) (2023-05-03T11:39:31Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Schematic Memory Persistence and Transience for Efficient and Robust
Continual Learning [8.030924531643532]
継続学習は、次世代人工知能(AI)に向けた有望なステップであると考えられている
まだ非常に原始的であり、既存の作品は主に(破滅的な)忘れの回避に焦点が当てられている。
神経科学の最近の進歩を踏まえた,外部記憶を用いた連続学習のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-05-05T14:32:47Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。