論文の概要: Self-Supervised Anomaly Detection by Self-Distillation and Negative
Sampling
- arxiv url: http://arxiv.org/abs/2201.06378v1
- Date: Mon, 17 Jan 2022 12:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:28:37.500027
- Title: Self-Supervised Anomaly Detection by Self-Distillation and Negative
Sampling
- Title(参考訳): 自己拡張と負サンプリングによる自己監督型異常検出
- Authors: Nima Rafiee, Rahil Gholamipoorfard, Nikolas Adaloglou, Simon Jaxy,
Julius Ramakers, Markus Kollmann
- Abstract要約: また, 負の例と対照的に, 分散学習セットの自己蒸留はOOD検出を強く向上させることを示した。
低レベルの特徴の統計を高レベルのセマンティクスを変更しながら保持する負のサンプルを活用することにより、より高い平均検出性能が得られることを観察する。
- 参考スコア(独自算出の注目度): 1.304892050913381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting whether examples belong to a given in-distribution or are
Out-Of-Distribution (OOD) requires identifying features specific to the
in-distribution. In the absence of labels, these features can be learned by
self-supervised techniques under the generic assumption that the most abstract
features are those which are statistically most over-represented in comparison
to other distributions from the same domain. In this work, we show that
self-distillation of the in-distribution training set together with contrasting
against negative examples derived from shifting transformation of auxiliary
data strongly improves OOD detection. We find that this improvement depends on
how the negative samples are generated. In particular, we observe that by
leveraging negative samples, which keep the statistics of low-level features
while changing the high-level semantics, higher average detection performance
is obtained. Furthermore, good negative sampling strategies can be identified
from the sensitivity of the OOD detection score. The efficiency of our approach
is demonstrated across a diverse range of OOD detection problems, setting new
benchmarks for unsupervised OOD detection in the visual domain.
- Abstract(参考訳): サンプルが所定のインディストリビューションに属するか、あるいはアウトオブディストリビューション(ood)に属するかを検出するには、インディストリビューション特有の特徴を特定する必要がある。
ラベルがない場合、これらの特徴は、最も抽象的な特徴は、同じ領域の他の分布と比較して統計的に最も過剰に表現されるものであるという一般的な仮定の下で、自己教師技術によって学べる。
本研究では, 補助データのシフト変換による負の例と対照的に, 分散学習セットの自己蒸留がOOD検出を強く向上させることを示す。
この改善は、負のサンプルの生成方法に依存することが分かりました。
特に,高レベルのセマンティクスを変化させながら低レベルの特徴の統計を保持する負のサンプルを利用することで,高い平均検出性能が得られることを観察した。
さらに、OOD検出スコアの感度から良い負のサンプリング戦略を特定することができる。
提案手法の効率性は多様なOOD検出問題で実証され、視覚領域における教師なしOOD検出のための新しいベンチマークが設定される。
関連論文リスト
- Rethinking the Evaluation of Out-of-Distribution Detection: A Sorites Paradox [70.57120710151105]
既存のアウト・オブ・ディストリビューション(OOD)検出ベンチマークは、サンプルを新しいラベルでOODデータとして分類する。
いくつかの限界OODサンプルは、実際には分布内(ID)サンプルに密接なセマンティック内容を持ち、OODサンプルをソリテスパラドックス(英語版)と判定する。
この問題に対処するため,Incremental Shift OOD (IS-OOD) というベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-14T09:27:56Z) - Toward a Realistic Benchmark for Out-of-Distribution Detection [3.8038269045375515]
我々は ImageNet と Places365 に基づく OOD 検出のための総合ベンチマークを導入する。
様々な特性を持つベンチマークを生成するために、どのクラスを配布中と考えるべきかを決定するために、いくつかのテクニックが使える。
論文 参考訳(メタデータ) (2024-04-16T11:29:43Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Robustness to Spurious Correlations Improves Semantic
Out-of-Distribution Detection [24.821151013905865]
画像入力のアウト・オブ・ディストリビューション(OOD)検出のための有望なアプローチとして,予測モデルの出力や特徴表現を利用する手法が登場した。
SN-OOD検出の故障について説明し、その対策としてニュアンス対応のOOD検出を提案する。
論文 参考訳(メタデータ) (2023-02-08T15:28:33Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。