論文の概要: A Closer Look at the Learnability of Out-of-Distribution (OOD) Detection
- arxiv url: http://arxiv.org/abs/2501.08821v1
- Date: Wed, 15 Jan 2025 14:19:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:52:00.525159
- Title: A Closer Look at the Learnability of Out-of-Distribution (OOD) Detection
- Title(参考訳): アウト・オブ・ディストリビューション(OOD)検出の学習可能性について
- Authors: Konstantin Garov, Kamalika Chaudhuri,
- Abstract要約: 我々は,OOD検出が一様で,一様ではない条件下で特徴付ける。
いくつかのケースでは、非一様学習性は、多くの負の結果を肯定的なものにしている。
OOD検出が学習可能なすべての場合において、具体的な学習アルゴリズムとサンプル・複雑度解析を提供する。
- 参考スコア(独自算出の注目度): 25.788559173418363
- License:
- Abstract: Machine learning algorithms often encounter different or "out-of-distribution" (OOD) data at deployment time, and OOD detection is frequently employed to detect these examples. While it works reasonably well in practice, existing theoretical results on OOD detection are highly pessimistic. In this work, we take a closer look at this problem, and make a distinction between uniform and non-uniform learnability, following PAC learning theory. We characterize under what conditions OOD detection is uniformly and non-uniformly learnable, and we show that in several cases, non-uniform learnability turns a number of negative results into positive. In all cases where OOD detection is learnable, we provide concrete learning algorithms and a sample-complexity analysis.
- Abstract(参考訳): 機械学習アルゴリズムは、デプロイ時に異なるあるいは"out-of-distriion"(OOD)データに遭遇することが多く、OOD検出はこれらの例を検出するために頻繁に使用される。
実際にはかなりうまく機能するが、OOD検出に関する既存の理論的結果は悲観的である。
本研究では,この問題をより深く考察し,PAC学習理論に従って一様学習性と非一様学習性とを区別する。
我々は,OOD検出が一様かつ一様ではない条件下で特徴付け,いくつかのケースにおいて,非一様学習能力が多くの負の結果を肯定的なものにしていることを示す。
OOD検出が学習可能なすべての場合において、具体的な学習アルゴリズムとサンプル・複雑度解析を提供する。
関連論文リスト
- The Best of Both Worlds: On the Dilemma of Out-of-distribution Detection [75.65876949930258]
アウト・オブ・ディストリビューション(OOD)検出はモデル信頼性に不可欠である。
我々は,OODの一般化能力を秘かに犠牲にすることで,最先端手法のOOD検出性能が向上することを示す。
論文 参考訳(メタデータ) (2024-10-12T07:02:04Z) - On the Learnability of Out-of-distribution Detection [46.9442031620796]
本稿では,OOD検出のほぼ正解(PAC)学習理論について検討する。
いくつかのシナリオにおいて、OOD検出の学習性に関するいくつかの不確実性定理を証明した。
そこで我々は,OOD検出の学習性を評価するために必要な条件をいくつか提示する。
論文 参考訳(メタデータ) (2024-04-07T08:17:48Z) - Unified Out-Of-Distribution Detection: A Model-Specific Perspective [31.68704233156108]
アウト・オブ・ディストリビューション(OOD)検出は、トレーニング分布に属さないテスト例を特定することを目的としている。
我々は、OOD検出を広い範囲で研究するための、新しい統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-13T20:31:35Z) - Is Out-of-Distribution Detection Learnable? [45.377641783085046]
我々は,OOD検出のほぼ正解(PAC)学習理論について検討した。
いくつかのシナリオにおいて、OOD検出の学習性に関するいくつかの不確実性定理を証明した。
そこで我々は,OOD検出の学習性を評価するために必要な条件をいくつか提示する。
論文 参考訳(メタデータ) (2022-10-26T13:35:19Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Contrastive Training for Improved Out-of-Distribution Detection [36.61315534166451]
本稿では,OOD検出性能向上のためのコントラストトレーニングを提案する。
コントラストトレーニングは,多くのベンチマークにおいてOOD検出性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:40:37Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。