論文の概要: Score Combining for Contrastive OOD Detection
- arxiv url: http://arxiv.org/abs/2501.12204v1
- Date: Tue, 21 Jan 2025 15:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:21:18.244437
- Title: Score Combining for Contrastive OOD Detection
- Title(参考訳): コントラストOOD検出のためのスコアコンバインド
- Authors: Edward T. Reehorst, Philip Schniter,
- Abstract要約: オフ・オブ・ディストリビューション(OOD)検出では、テストサンプルが既知の不整合分布から来ているかどうかを分類するよう求められる。
トレーニングデータセットによって不整合分布が定義され、遭遇する可能性のある新規性に関する追加の知識が存在しない場合に焦点を当てる。
この問題は、新規性検出、一級分類、教師なし異常検出とも呼ばれる。
- 参考スコア(独自算出の注目度): 7.756211500979314
- License:
- Abstract: In out-of-distribution (OOD) detection, one is asked to classify whether a test sample comes from a known inlier distribution or not. We focus on the case where the inlier distribution is defined by a training dataset and there exists no additional knowledge about the novelties that one is likely to encounter. This problem is also referred to as novelty detection, one-class classification, and unsupervised anomaly detection. The current literature suggests that contrastive learning techniques are state-of-the-art for OOD detection. We aim to improve on those techniques by combining/ensembling their scores using the framework of null hypothesis testing and, in particular, a novel generalized likelihood ratio test (GLRT). We demonstrate that our proposed GLRT-based technique outperforms the state-of-the-art CSI and SupCSI techniques from Tack et al. 2020 in dataset-vs-dataset experiments with CIFAR-10, SVHN, LSUN, ImageNet, and CIFAR-100, as well as leave-one-class-out experiments with CIFAR-10. We also demonstrate that our GLRT outperforms the score-combining methods of Fisher, Bonferroni, Simes, Benjamini-Hochwald, and Stouffer in our application.
- Abstract(参考訳): オフ・オブ・ディストリビューション(OOD)検出では、テストサンプルが既知の不整合分布から来ているかどうかを分類するよう求められる。
トレーニングデータセットによって不整合分布が定義され、遭遇する可能性のある新規性に関する追加の知識が存在しない場合に焦点を当てる。
この問題は、新規性検出、一級分類、教師なし異常検出とも呼ばれる。
現在の文献では、対比学習技術はOOD検出の最先端技術であることが示唆されている。
本研究の目的は,Null仮説テストの枠組みと,特に新しい一般化可能性比テスト(GLRT)を用いて,それらのスコアを結合・アンサンブルすることで,これらの手法を改善することである。
提案手法は, CIFAR-10, SVHN, LSUN, ImageNet, CIFAR-100, および CIFAR-10 を用いたデータセット-vsデータセット実験において, Tack らによる最先端の CSI および SupCSI 技術より優れていることを示す。
また、我々のGLRTはFisher、Bonferroni、Simes、Benjamini-Hochwald、Stoufferのスコア合成方法よりも優れていることを示す。
関連論文リスト
- FlowCon: Out-of-Distribution Detection using Flow-Based Contrastive Learning [0.0]
我々は新しい密度に基づくOOD検出技術であるtextitFlowConを紹介する。
我々の主な革新は、正規化フローの特性と教師付きコントラスト学習を効率的に組み合わせることである。
経験的評価は、一般的な視覚データセットにまたがる手法の性能向上を示す。
論文 参考訳(メタデータ) (2024-07-03T20:33:56Z) - ConjNorm: Tractable Density Estimation for Out-of-Distribution Detection [41.41164637577005]
ポストホックアウト・オブ・ディストリビューション(OOD)検出は、信頼性の高い機械学習において大きな注目を集めている。
本稿では,密度に基づくスコア設計の統一的な視点を提供するために,Bregmanの発散に基づく理論的枠組みを提案する。
我々は,提案するtextscConjNormが,様々なOOD検出設定において,新たな最先端技術を確立したことを示す。
論文 参考訳(メタデータ) (2024-02-27T21:02:47Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Plugin estimators for selective classification with out-of-distribution
detection [67.28226919253214]
現実世界の分類器は、信頼性の低いサンプルの予測を控えることの恩恵を受けることができる。
これらの設定は、選択分類(SC)とアウト・オブ・ディストリビューション(OOD)の検出文献において広範囲に研究されている。
OOD検出による選択分類に関する最近の研究は、これらの問題の統一的な研究を議論している。
本稿では,既存の手法を理論的に基礎づけ,有効かつ一般化したSCOD用プラグイン推定器を提案する。
論文 参考訳(メタデータ) (2023-01-29T07:45:17Z) - Few-shot Object Detection with Refined Contrastive Learning [4.520231308678286]
Refined Contrastive Learning (FSRC) を用いた新しい複数ショットオブジェクト検出法を提案する。
コンフリブルクラスを含む新しいクラスからResemblance Groupを見つけるために、事前決定コンポーネントが導入された。
RCLはクラス間の距離を増やすために、このクラスのグループで指摘される。
論文 参考訳(メタデータ) (2022-11-24T09:34:20Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Unsupervised Class-Incremental Learning Through Confusion [0.4604003661048266]
入ってくるデータを新しいクラスとして訓練することによるネットワークの混乱を生かした新規性検出手法を提案する。
この検出方法中にクラスアンバランスを組み込むことで、パフォーマンスが大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-04-09T15:58:43Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。