論文の概要: Learning to reject meets OOD detection: Are all abstentions created
equal?
- arxiv url: http://arxiv.org/abs/2301.12386v1
- Date: Sun, 29 Jan 2023 07:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:26:40.516001
- Title: Learning to reject meets OOD detection: Are all abstentions created
equal?
- Title(参考訳): 拒否する学習はOOD検出に一致する: すべての棄権は平等か?
- Authors: Harikrishna Narasimhan, Aditya Krishna Menon, Wittawat Jitkrittum,
Sanjiv Kumar
- Abstract要約: L2R とout-of-distribution (OOD) 検出の学習は古典的な2つの問題である。
我々はこれらの問題を公式に関連付け、どのように共同で解決されるかを示す。
- 参考スコア(独自算出の注目度): 67.28226919253214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to reject (L2R) and out-of-distribution (OOD) detection are two
classical problems, each of which involve detecting certain abnormal samples:
in L2R, the goal is to detect "hard" samples on which to abstain, while in OOD
detection, the goal is to detect "outlier" samples not drawn from the training
distribution. Intriguingly, despite being developed in parallel literatures,
both problems share a simple baseline: the maximum softmax probability (MSP)
score. However, there is limited understanding of precisely how these problems
relate. In this paper, we formally relate these problems, and show how they may
be jointly solved. We first show that while MSP is theoretically optimal for
L2R, it can be theoretically sub-optimal for OOD detection in some important
practical settings. We then characterize the Bayes-optimal classifier for a
unified formulation that generalizes both L2R and OOD detection. Based on this,
we design a plug-in approach for learning to abstain on both inlier and OOD
samples, while constraining the total abstention budget. Experiments on
benchmark OOD datasets demonstrate that our approach yields competitive
classification and OOD detection performance compared to baselines from both
literatures.
- Abstract(参考訳): L2Rでは、停止すべき"ハード"サンプルを検出し、OOD検出では、トレーニング分布から引き出されていない"アウトリー"サンプルを検出することが目標である。
興味深いことに、並列文献で開発されたにもかかわらず、どちらの問題も単純なベースラインを共有している: 最大ソフトマックス確率(MSP)スコア。
しかし、これらの問題がどのように関連しているかの理解は限られている。
本稿では,これらの問題を形式的に関連付け,その解決方法を示す。
MSPは理論的にL2Rに最適であるが,OOD検出には理論的に準最適であることを示す。
次に、L2RとOODの両方を一般化する統一定式化のためのベイズ最適分類器を特徴付ける。
そこで我々は,インリアとOODの両方のサンプルを吸収するプラグインアプローチを設計し,総吸収予算を制約する。
OODデータセットのベンチマーク実験により,本手法は両文献のベースラインと比較して,競合分類とOOD検出性能が向上することを示した。
関連論文リスト
- Recent Advances in OOD Detection: Problems and Approaches [40.27656150526273]
Out-of-Distribution(OOD)検出は、トレーニングカテゴリ空間外のテストサンプルを検出することを目的としている。
評価シナリオ,様々な応用,今後の研究方向性について論じる。
論文 参考訳(メタデータ) (2024-09-18T11:30:30Z) - Dissecting Out-of-Distribution Detection and Open-Set Recognition: A Critical Analysis of Methods and Benchmarks [17.520137576423593]
我々は,コミュニティ内の2つの大きなサブフィールドの総合的なビュー – アウト・オブ・ディストリビューション(OOD)検出とオープンセット認識(OSR) – を提供することを目指している。
我々は,OOD検出における最先端手法とOSR設定との厳密な相互評価を行い,それらの手法の性能の強い相関関係を同定する。
我々は,OOD検出とOSRによって取り組まれている問題を解消する,より大規模なベンチマーク設定を提案する。
論文 参考訳(メタデータ) (2024-08-29T17:55:07Z) - Rethinking Out-of-Distribution Detection for Reinforcement Learning: Advancing Methods for Evaluation and Detection [3.7384109981836158]
強化学習(RL)におけるアウト・オブ・ディストリビューション(OOD)検出の問題点について検討する。
本稿では、RLにおけるOOD検出の用語の明確化を提案し、他の機械学習分野の文献と整合する。
OOD検出のための新しいベンチマークシナリオを提案し、エージェント環境ループの異なるコンポーネントに時間的自己相関を伴う異常を導入する。
DEXTERはベンチマークシナリオ間の異常を確実に識別でき、統計から得られた最先端のOOD検出器や高次元変化点検出器と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-10T15:39:49Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection [12.578844450586]
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
論文 参考訳(メタデータ) (2023-07-12T14:10:15Z) - Beyond AUROC & co. for evaluating out-of-distribution detection
performance [50.88341818412508]
安全(r)AIとの関連性を考えると,OOD検出法の比較の基礎が実用的ニーズと整合しているかどうかを検討することが重要である。
我々は,IDとOODの分離が不十分なことを明示する新しい指標であるAUTC(Area Under the Threshold Curve)を提案する。
論文 参考訳(メタデータ) (2023-06-26T12:51:32Z) - OpenOOD: Benchmarking Generalized Out-of-Distribution Detection [60.13300701826931]
アウト・オブ・ディストリビューション(OOD)検出は、安全クリティカルな機械学習アプリケーションにとって不可欠である。
この分野では現在、統一的で厳格に定式化され、包括的なベンチマークが欠けている。
関連フィールドで開発された30以上のメソッドを実装したOpenOODという,統一的で構造化されたシステムを構築します。
論文 参考訳(メタデータ) (2022-10-13T17:59:57Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。