論文の概要: Few-shot Anomaly Detection in Text with Deviation Learning
- arxiv url: http://arxiv.org/abs/2308.11780v1
- Date: Tue, 22 Aug 2023 20:40:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 16:46:55.318646
- Title: Few-shot Anomaly Detection in Text with Deviation Learning
- Title(参考訳): 偏差学習によるテキスト中の少数ショット異常検出
- Authors: Anindya Sundar Das, Aravind Ajay, Sriparna Saha and Monowar Bhuyan
- Abstract要約: 偏差学習を用いたエンドツーエンド手法で異常スコアを明示的に学習するフレームワークであるFATEを紹介する。
本モデルは,マルチヘッド・セルフアテンション・レイヤと複数インスタンス・ラーニング・アプローチを用いて,異常の異なる振る舞いを学習するために最適化されている。
- 参考スコア(独自算出の注目度): 13.957106119614213
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most current methods for detecting anomalies in text concentrate on
constructing models solely relying on unlabeled data. These models operate on
the presumption that no labeled anomalous examples are available, which
prevents them from utilizing prior knowledge of anomalies that are typically
present in small numbers in many real-world applications. Furthermore, these
models prioritize learning feature embeddings rather than optimizing anomaly
scores directly, which could lead to suboptimal anomaly scoring and inefficient
use of data during the learning process. In this paper, we introduce FATE, a
deep few-shot learning-based framework that leverages limited anomaly examples
and learns anomaly scores explicitly in an end-to-end method using deviation
learning. In this approach, the anomaly scores of normal examples are adjusted
to closely resemble reference scores obtained from a prior distribution.
Conversely, anomaly samples are forced to have anomalous scores that
considerably deviate from the reference score in the upper tail of the prior.
Additionally, our model is optimized to learn the distinct behavior of
anomalies by utilizing a multi-head self-attention layer and multiple instance
learning approaches. Comprehensive experiments on several benchmark datasets
demonstrate that our proposed approach attains a new level of state-of-the-art
performance.
- Abstract(参考訳): テキスト中の異常を検出するほとんどの方法は、ラベルのないデータのみに依存するモデルの構築に集中している。
これらのモデルは、ラベル付き異常な例がないという仮定に基づいて動作し、多くの実世界のアプリケーションで通常小さな数に存在する異常の事前知識を利用できないようにする。
さらに、これらのモデルでは、異常スコアを直接最適化するのではなく、学習機能の埋め込みを優先する。
本稿では,限定された異常例を利用した深層学習ベースのフレームワークであるFATEを紹介し,偏差学習を用いたエンドツーエンド手法で異常点を明示的に学習する。
このアプローチでは, 正規例の異常スコアを, 先行分布から得られる基準スコアによく似たように調整する。
逆に、異常サンプルは、前者の上尾の基準スコアからかなり逸脱した異常スコアを持つように強制される。
さらに,マルチヘッド・セルフアテンション層と複数のインスタンス・ラーニング・アプローチを用いて,異常の異なる振る舞いを学ぶように最適化した。
いくつかのベンチマークデータセットに関する総合的な実験により、提案手法が最先端性能の新たなレベルを達成することを示す。
関連論文リスト
- Anomaly Detection by Context Contrasting [57.695202846009714]
異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
近年の自己教師型学習の進歩は、この点において大きな可能性を秘めている。
本稿では、通常のトレーニングデータを異なるコンテキストに設定することで、この問題に対処するCon2を提案する。
より現実的な医療環境では,様々なベンチマークで最先端のパフォーマンスを実現しつつ,優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-29T07:59:06Z) - SaliencyCut: Augmenting Plausible Anomalies for Anomaly Detection [24.43321988051129]
そこで本稿では,SaliencyCutという新たなデータ拡張手法を提案する。
次に、各サンプルから微細な異常特徴を抽出し評価するために、異常学習ヘッドにパッチワイド残余モジュールを新規に設計する。
論文 参考訳(メタデータ) (2023-06-14T08:55:36Z) - Catching Both Gray and Black Swans: Open-set Supervised Anomaly
Detection [90.32910087103744]
ラベル付き異常な例は、多くの現実世界のアプリケーションでよく見られる。
これらの異常例は、アプリケーション固有の異常について貴重な知識を提供する。
トレーニング中に見られる異常は、可能なあらゆる種類の異常を説明できないことが多い。
本稿では,オープンセット型教師付き異常検出に取り組む。
論文 参考訳(メタデータ) (2022-03-28T05:21:37Z) - Few-shot Deep Representation Learning based on Information Bottleneck
Principle [0.0]
標準異常検出問題では、サンプルが正規データの単一ソースから生成されたと仮定して、教師なしの設定で検出モデルを訓練する。
実際には、通常データは複数のクラスから構成されることが多いが、このような設定では、大規模ラベル付きデータを持たない通常のクラス間の相違点において、通常のインスタンスと異常を区別する学習が大きな課題となっている。
本研究では,通常のクラスからサンプルを少数用意することで,この課題を克服しようと試みるが,これは過度にコストがかかるものではない。
論文 参考訳(メタデータ) (2021-11-25T07:15:12Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Deep Visual Anomaly detection with Negative Learning [18.79849041106952]
本稿では、異常検出の強化に負の学習概念を用いる、負の学習を伴う異常検出(ADNL)を提案する。
その考え方は、与えられた少数の異常例を用いて生成モデルの再構成能力を制限することである。
このようにして、ネットワークは通常のデータを再構築することを学ぶだけでなく、異常の可能性のある分布から遠く離れた正規分布を囲む。
論文 参考訳(メタデータ) (2021-05-24T01:48:44Z) - Toward Deep Supervised Anomaly Detection: Reinforcement Learning from
Partially Labeled Anomaly Data [150.9270911031327]
本稿では,一部のラベル付き異常事例と大規模ラベルなしデータセットを用いた異常検出の問題点について考察する。
既存の関連手法は、通常、一連の異常にまたがらない限られた異常例にのみ適合するか、ラベルのないデータから教師なしの学習を進めるかのいずれかである。
そこで本研究では,ラベル付きおよびラベルなし両方の異常の検出をエンドツーエンドに最適化する,深層強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-15T03:05:39Z) - Deep Weakly-supervised Anomaly Detection [118.55172352231381]
ペアワイズ関係予測ネットワーク(PReNet)は、ペアワイズ関係の特徴と異常スコアを学習する。
PReNetは、学習したペアの異常パターンに適合する見知らぬ異常を検出できる。
12の実世界のデータセットに対する実証的な結果から、PReNetは目に見えない異常や異常を検知する9つの競合する手法を著しく上回っている。
論文 参考訳(メタデータ) (2019-10-30T00:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。