論文の概要: Gradient-based Novelty Detection Boosted by Self-supervised Binary
Classification
- arxiv url: http://arxiv.org/abs/2112.09815v1
- Date: Sat, 18 Dec 2021 01:17:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 17:18:23.626207
- Title: Gradient-based Novelty Detection Boosted by Self-supervised Binary
Classification
- Title(参考訳): 自己教師付き二項分類によるグラディエントベースノベルティ検出
- Authors: Jingbo Sun, Li Yang, Jiaxin Zhang, Frank Liu, Mahantesh Halappanavar,
Deliang Fan, Yu Cao
- Abstract要約: 新規性検出は、アウト・オブ・ディストリビューション(OOD)データを自動的に識別することを目的としている。
我々は、事前に定義されたOODデータに依存しない、新しい自己教師型アプローチを提案する。
複数のデータセットによる評価では、提案手法は最先端の教師なし手法と教師なし手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 20.715158729811755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novelty detection aims to automatically identify out-of-distribution (OOD)
data, without any prior knowledge of them. It is a critical step in data
monitoring, behavior analysis and other applications, helping enable continual
learning in the field. Conventional methods of OOD detection perform
multi-variate analysis on an ensemble of data or features, and usually resort
to the supervision with OOD data to improve the accuracy. In reality, such
supervision is impractical as one cannot anticipate the anomalous data. In this
paper, we propose a novel, self-supervised approach that does not rely on any
pre-defined OOD data: (1) The new method evaluates the Mahalanobis distance of
the gradients between the in-distribution and OOD data. (2) It is assisted by a
self-supervised binary classifier to guide the label selection to generate the
gradients, and maximize the Mahalanobis distance. In the evaluation with
multiple datasets, such as CIFAR-10, CIFAR-100, SVHN and TinyImageNet, the
proposed approach consistently outperforms state-of-the-art supervised and
unsupervised methods in the area under the receiver operating characteristic
(AUROC) and area under the precision-recall curve (AUPR) metrics. We further
demonstrate that this detector is able to accurately learn one OOD class in
continual learning.
- Abstract(参考訳): 新規性検出は、アウト・オブ・ディストリビューション(OOD)データを自動的に識別することを目的としている。
データ監視、振る舞い分析、その他のアプリケーションにおいて重要なステップであり、フィールドでの継続的な学習を可能にする。
OOD検出の従来の方法は、データや特徴のアンサンブル上で多変量解析を行い、通常、OODデータによる監視を利用して精度を向上させる。
実際、そのような監督は異常なデータを予測できないため実用的ではない。
本稿では, 事前定義されたOODデータに依存しない新規な自己教師型アプローチを提案する。(1)新しい手法は, 配当データとOODデータとの勾配のマハラノビス距離を評価する。
2) ラベル選択を誘導して勾配を生成し, マハラノビス距離を最大化するために, 自己教師付きバイナリ分類器が補助する。
CIFAR-10, CIFAR-100, SVHN, TinyImageNetなどの複数のデータセットを用いた評価では, 提案手法は, 受信操作特性 (AUROC) と高精度リコール曲線 (AUPR) 測定値の領域において, 最先端の教師なし手法と教師なし手法を一貫して上回っている。
さらに、この検出器は連続学習において1つのOODクラスを正確に学習できることを示す。
関連論文リスト
- Unifying Unsupervised Graph-Level Anomaly Detection and Out-of-Distribution Detection: A Benchmark [73.58840254552656]
近年,非教師付きグラフレベルの異常検出(GLAD)と教師なしグラフレベルのアウト・オブ・ディストリビューション(OOD)検出が注目されている。
教師なしグラフレベルのOODと異常検出のための統一ベンチマーク(我々の方法)を提案する。
我々のベンチマークでは、4つの実用的な異常とOOD検出シナリオにまたがる35のデータセットを網羅している。
我々は,既存手法の有効性,一般化性,堅牢性,効率性について多次元解析を行った。
論文 参考訳(メタデータ) (2024-06-21T04:07:43Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Open-World Lifelong Graph Learning [7.535219325248997]
オープンワールドシナリオにおける生涯グラフ学習の課題について検討する。
我々は、新しいクラスを認識するために、out-of-Distribution (OOD) 検出手法を利用する。
我々は,OOD検出手法とグラフ近傍から収集した情報を組み合わせることで,新しいクラス検出を行うことを提案する。
論文 参考訳(メタデータ) (2023-10-19T08:18:10Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Unsupervised Evaluation of Out-of-distribution Detection: A Data-centric
Perspective [55.45202687256175]
アウト・オブ・ディストリビューション(OOD)検出法は、個々のテストサンプルがイン・ディストリビューション(IND)なのかOODなのかという、試験対象の真実を持っていると仮定する。
本稿では,OOD検出における教師なし評価問題を初めて紹介する。
我々は,OOD検出性能の教師なし指標としてGscoreを計算する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T13:34:35Z) - GOOD-D: On Unsupervised Graph Out-Of-Distribution Detection [67.90365841083951]
我々は,OODグラフを検出するための新しいグラフコントラスト学習フレームワークGOOD-Dを開発した。
GOOD-Dは、潜在IDパターンをキャプチャし、異なる粒度のセマンティック不整合に基づいてOODグラフを正確に検出することができる。
教師なしグラフレベルのOOD検出における先駆的な研究として,提案手法と最先端手法を比較した総合的なベンチマークを構築した。
論文 参考訳(メタデータ) (2022-11-08T12:41:58Z) - Out-Of-Distribution Detection In Unsupervised Continual Learning [7.800379384628357]
教師なし連続学習は、人間のアノテーションを必要とせずに、新しいタスクを段階的に学習することを目的としている。
各新しいデータが新しいタスクに対応するかどうかを最初に識別するためには、配布外検知器が必要である。
本稿では,まず出力バイアスを補正し,分布内データに対する出力信頼度を高めることによって,新しいOOD検出手法を提案する。
論文 参考訳(メタデータ) (2022-04-12T01:24:54Z) - RODD: A Self-Supervised Approach for Robust Out-of-Distribution
Detection [12.341250124228859]
本稿では,分散データセットに依存しない簡易かつ効果的なOOD検出手法を提案する。
提案手法は, コンパクトな低次元空間上に埋没するトレーニングサンプルの自己教師型特徴学習に依存する。
自己教師付きコントラスト学習を用いた事前学習モデルでは、潜伏空間における一次元特徴学習のより良いモデルが得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-06T03:05:58Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。