論文の概要: Anomaly Detection by Context Contrasting
- arxiv url: http://arxiv.org/abs/2405.18848v2
- Date: Mon, 14 Oct 2024 08:48:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 22:18:48.305907
- Title: Anomaly Detection by Context Contrasting
- Title(参考訳): コンテキストコントラストによる異常検出
- Authors: Alain Ryser, Thomas M. Sutter, Alexander Marx, Julia E. Vogt,
- Abstract要約: 異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
近年の自己教師型学習の進歩は、この点において大きな可能性を秘めている。
我々はコンテキスト拡張を通じて学習するCon$を提案する。
- 参考スコア(独自算出の注目度): 57.695202846009714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anomaly detection focuses on identifying samples that deviate from the norm. When working with high-dimensional data such as images, a crucial requirement for detecting anomalous patterns is learning lower-dimensional representations that capture concepts of normality. Recent advances in self-supervised learning have shown great promise in this regard. However, many successful self-supervised anomaly detection methods assume prior knowledge about anomalies to create synthetic outliers during training. Yet, in real-world applications, we often do not know what to expect from unseen data, and we can solely leverage knowledge about normal data. In this work, we propose Con$_2$, which learns representations through context augmentations that allow us to observe samples from two distinct perspectives while keeping the invariances of normal data. Con$_2$ learns rich representations of context-augmented samples by clustering them according to their context while simultaneously aligning their positions across clusters. At test time, representations of anomalies that do not adhere to the invariances of normal data then deviate from their respective context cluster. Learning representations in such a way thus allows us to detect anomalies without making assumptions about anomalous data.
- Abstract(参考訳): 異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
画像などの高次元データを扱う場合、異常パターンを検出するための重要な要件は、正規性の概念を捉えた低次元表現を学習することである。
近年の自己教師型学習の進歩は、この点において大きな可能性を秘めている。
しかし、多くの自己監督型異常検出手法が、訓練中に合成異常値を生成するために、異常に関する事前知識を前提としている。
しかし、現実世界のアプリケーションでは、目に見えないデータから何を期待すべきか分からないことが多く、通常のデータに関する知識を単に活用することができる。
本研究では,2つの異なる視点からサンプルを観察し,通常のデータの不変性を保ちながら表現を学習するCon$_2$を提案する。
Con$_2$は、コンテキスト拡張されたサンプルのリッチな表現を、コンテキストに応じてクラスタ化しながら、クラスタ間の位置を同時に調整することで学習する。
テスト時に、通常のデータの不変性に従わない異常表現は、それぞれのコンテキストクラスタから逸脱する。
このような方法で表現を学習することで、異常データを仮定することなく異常を検出することができる。
関連論文リスト
- Biased Generalization in Diffusion Models [4.602851365305176]
生成モデリングの一般化は、有限データセットから基礎となる分布を学習し、新しいサンプルを生成する能力として定義される。
実際には、テスト損失の最小限でトレーニングが停止されることがしばしばあり、一般化の運用上の指標として捉えられる。
トレーニングデータに不規則に近接するサンプルを選好しながら、モデルがテスト損失を減らし続け、トレーニング中のバイアス付き一般化のフェーズを特定することで、この視点に挑戦する。
論文 参考訳(メタデータ) (2026-03-03T19:25:33Z) - Multi-Cue Anomaly Detection and Localization under Data Contamination [0.6703429330486276]
本稿では,適応的偏差学習パラダイムに限定的な異常監視を組み込んだ頑健な異常検出フレームワークを提案する。
本フレームワークは, 各種データ汚染下での強い検出・局所化性能, 解釈可能性, 堅牢性を実現する。
論文 参考訳(メタデータ) (2026-01-30T12:34:13Z) - Correcting False Alarms from Unseen: Adapting Graph Anomaly Detectors at Test Time [60.341117019125214]
グラフ異常検出(GAD)における未確認正規pattErnsの修正のための,軽量かつプラグアンドプレイなテスト時間適応フレームワークを提案する。
意味的混乱に対処するために、シフトしたデータと元のデータとをグラフ属性レベルで整合させるグラフ整合器を用いる。
10個の実世界のデータセットに対する大規模な実験により、TUNEは事前学習されたGADモデルの合成パターンと実際の見えない正常パターンの両方への一般化性を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-11-10T12:10:05Z) - Enhancing Anomaly Detection via Generating Diversified and Hard-to-distinguish Synthetic Anomalies [7.021105583098609]
近年のアプローチでは、通常のサンプルから合成異常を生成するためにドメイン固有の変換や摂動を活用することに重点を置いている。
そこで本研究では,条件付き摂動器と判別器を併用したドメインに依存しない新しい手法を提案する。
我々は,最先端のベンチマークよりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2024-09-16T08:15:23Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - SaliencyCut: Augmenting Plausible Anomalies for Anomaly Detection [24.43321988051129]
そこで本稿では,SaliencyCutという新たなデータ拡張手法を提案する。
次に、各サンプルから微細な異常特徴を抽出し評価するために、異常学習ヘッドにパッチワイド残余モジュールを新規に設計する。
論文 参考訳(メタデータ) (2023-06-14T08:55:36Z) - CRADL: Contrastive Representations for Unsupervised Anomaly Detection
and Localization [2.8659934481869715]
医用画像における教師なし異常検出は、訓練中に異常データを必要とせず、任意の異常を検出し、位置決めすることを目的としている。
現在の最先端の手法のほとんどは、画像上で直接動作する潜在変数生成モデルを使用している。
コントラストプレテクストタスクで訓練されたエンコーダの低次元表現空間において,正規サンプルの分布を直接モデル化するCRADLを提案する。
論文 参考訳(メタデータ) (2023-01-05T16:07:49Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - Augment to Detect Anomalies with Continuous Labelling [10.646747658653785]
異常検出は、トレーニング観察と何らかの点で異なるサンプルを認識することである。
最近の最先端のディープラーニングに基づく異常検出手法は、計算コスト、複雑さ、不安定な訓練手順、非自明な実装に悩まされている。
我々は、軽量な畳み込みニューラルネットワークを訓練し、異常検出における最先端の性能に到達するための単純な学習手順を活用する。
論文 参考訳(メタデータ) (2022-07-03T20:11:51Z) - Catching Both Gray and Black Swans: Open-set Supervised Anomaly
Detection [90.32910087103744]
ラベル付き異常な例は、多くの現実世界のアプリケーションでよく見られる。
これらの異常例は、アプリケーション固有の異常について貴重な知識を提供する。
トレーニング中に見られる異常は、可能なあらゆる種類の異常を説明できないことが多い。
本稿では,オープンセット型教師付き異常検出に取り組む。
論文 参考訳(メタデータ) (2022-03-28T05:21:37Z) - Few-shot Deep Representation Learning based on Information Bottleneck
Principle [0.0]
標準異常検出問題では、サンプルが正規データの単一ソースから生成されたと仮定して、教師なしの設定で検出モデルを訓練する。
実際には、通常データは複数のクラスから構成されることが多いが、このような設定では、大規模ラベル付きデータを持たない通常のクラス間の相違点において、通常のインスタンスと異常を区別する学習が大きな課題となっている。
本研究では,通常のクラスからサンプルを少数用意することで,この課題を克服しようと試みるが,これは過度にコストがかかるものではない。
論文 参考訳(メタデータ) (2021-11-25T07:15:12Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Toward Deep Supervised Anomaly Detection: Reinforcement Learning from
Partially Labeled Anomaly Data [150.9270911031327]
本稿では,一部のラベル付き異常事例と大規模ラベルなしデータセットを用いた異常検出の問題点について考察する。
既存の関連手法は、通常、一連の異常にまたがらない限られた異常例にのみ適合するか、ラベルのないデータから教師なしの学習を進めるかのいずれかである。
そこで本研究では,ラベル付きおよびラベルなし両方の異常の検出をエンドツーエンドに最適化する,深層強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-15T03:05:39Z) - Deep Weakly-supervised Anomaly Detection [118.55172352231381]
ペアワイズ関係予測ネットワーク(PReNet)は、ペアワイズ関係の特徴と異常スコアを学習する。
PReNetは、学習したペアの異常パターンに適合する見知らぬ異常を検出できる。
12の実世界のデータセットに対する実証的な結果から、PReNetは目に見えない異常や異常を検知する9つの競合する手法を著しく上回っている。
論文 参考訳(メタデータ) (2019-10-30T00:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。