論文の概要: Re Learning Memory Guided Normality for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2101.12382v1
- Date: Fri, 29 Jan 2021 03:28:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 15:58:49.192278
- Title: Re Learning Memory Guided Normality for Anomaly Detection
- Title(参考訳): 異常検出のための学習記憶誘導正規性
- Authors: Kevin Stephen, Varun Menon
- Abstract要約: 筆者らは、これがネットワークがパターンを学習するのに役立つと主張している。
原型記憶項目のt-SNEプロットの助けを借りて有効性を検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The authors have introduced a novel method for unsupervised anomaly detection
that utilises a newly introduced Memory Module in their paper. We validate the
authors claim that this helps improve performance by helping the network learn
prototypical patterns, and uses the learnt memory to reduce the representation
capacity of Convolutional Neural Networks. Further, we validate the efficacy of
two losses introduced by the authors, Separateness Loss and Compactness Loss
presented to increase the discriminative power of the memory items and the
deeply learned features. We test the efficacy with the help of t-SNE plots of
the memory items.
- Abstract(参考訳): 著者らは,新たに導入されたメモリモジュールを論文で活用する,教師なし異常検出の新しい手法を導入した。
筆者らは,ネットワークが先駆的なパターンを学習し,学習メモリを用いて畳み込みニューラルネットワークの表現能力を低減することで,パフォーマンスの向上に寄与すると主張する。
さらに,著者らが導入した2つの損失,分離性損失とコンパクト性損失の有効性を検証し,記憶項目の識別能力と深層学習機能の向上を図った。
記憶項目のt-SNEプロットの助けを借りて有効性を検証する。
関連論文リスト
- PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Map-based Experience Replay: A Memory-Efficient Solution to Catastrophic
Forgetting in Reinforcement Learning [15.771773131031054]
深層強化学習エージェントは、しばしば破滅的な忘れ込みに悩まされ、新しいデータをトレーニングする際に、入力空間の一部で以前見つかったソリューションを忘れる。
本稿では,Grow-When-Required(GWR)自己組織化ネットワークに基づく,認知に触発された新しいリプレイメモリ手法を提案する。
提案手法では, 状態ノードと遷移エッジの簡潔な環境モデルライクなネットワークに格納された遷移を整理し, 類似のサンプルをマージすることにより, メモリサイズを小さくし, サンプル間のペアワイズ距離を増大させる。
論文 参考訳(メタデータ) (2023-05-03T11:39:31Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - EcoTTA: Memory-Efficient Continual Test-time Adaptation via
Self-distilled Regularization [71.70414291057332]
TTAは主にメモリ制限のあるエッジデバイス上で実行される。
長期的な適応は、しばしば破滅的な忘れとエラーの蓄積につながる。
本稿では,凍結したオリジナルネットワークを対象ドメインに適応させる軽量なメタネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-03T13:05:30Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Memorization in Deep Neural Networks: Does the Loss Function matter? [1.71982924656402]
対称損失関数は, 交叉エントロピーや二乗誤差損失とは対照的に, ネットワークの過度な適合性を著しく改善することを示した。
本研究の結果から, 記憶のこの現象において, 損失関数が単独で果たす役割が明らかとなった。
論文 参考訳(メタデータ) (2021-07-21T09:08:51Z) - Schematic Memory Persistence and Transience for Efficient and Robust
Continual Learning [8.030924531643532]
継続学習は、次世代人工知能(AI)に向けた有望なステップであると考えられている
まだ非常に原始的であり、既存の作品は主に(破滅的な)忘れの回避に焦点が当てられている。
神経科学の最近の進歩を踏まえた,外部記憶を用いた連続学習のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-05-05T14:32:47Z) - Embedding Transfer with Label Relaxation for Improved Metric Learning [43.94511888670419]
本稿では,学習した埋め込みモデルの知識を他へ伝達する,新しい埋め込み変換手法を提案する。
本手法は,ソース埋め込み空間のサンプル間の類似性を知識として活用し,対象埋め込みモデルの学習に用いる損失を伝達する。
論文 参考訳(メタデータ) (2021-03-27T13:35:03Z) - Fast & Slow Learning: Incorporating Synthetic Gradients in Neural Memory
Controllers [41.59845953349713]
我々は,NMNコントローラの学習プロセスを分離し,新しい情報が存在する場合に柔軟で迅速な適応を実現することを提案する。
この特徴は、メモリコントローラがターゲットドメインの抽象概念を素早く把握し、記憶された知識を適応しなければならないメタ学習タスクにおいて非常に有益である。
論文 参考訳(メタデータ) (2020-11-10T22:44:27Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。