論文の概要: Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection
- arxiv url: http://arxiv.org/abs/2307.06179v1
- Date: Wed, 12 Jul 2023 14:10:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 12:52:32.220003
- Title: Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection
- Title(参考訳): リレーショナル推論に基づくOOD検出に必要なのは大規模なクラス分離ではない
- Authors: Lorenzo Li Lu, Giulia D'Ascenzi, Francesco Cappio Borlino, Tatiana
Tommasi
- Abstract要約: Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
- 参考スコア(独自算出の注目度): 12.578844450586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard recognition approaches are unable to deal with novel categories at
test time. Their overconfidence on the known classes makes the predictions
unreliable for safety-critical applications such as healthcare or autonomous
driving. Out-Of-Distribution (OOD) detection methods provide a solution by
identifying semantic novelty. Most of these methods leverage a learning stage
on the known data, which means training (or fine-tuning) a model to capture the
concept of normality. This process is clearly sensitive to the amount of
available samples and might be computationally expensive for on-board systems.
A viable alternative is that of evaluating similarities in the embedding space
produced by large pre-trained models without any further learning effort. We
focus exactly on such a fine-tuning-free OOD detection setting. This works
presents an in-depth analysis of the recently introduced relational reasoning
pre-training and investigates the properties of the learned embedding,
highlighting the existence of a correlation between the inter-class feature
distance and the OOD detection accuracy. As the class separation depends on the
chosen pre-training objective, we propose an alternative loss function to
control the inter-class margin, and we show its advantage with thorough
experiments.
- Abstract(参考訳): 標準認識アプローチは、テスト時に新しいカテゴリを扱うことができない。
既知のクラスに対する過剰な信頼は、医療や自動運転のような安全クリティカルなアプリケーションでは、予測を信頼できないものにします。
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法のほとんどは、既知のデータの学習段階を利用する。つまり、正規性の概念を捉えるためにモデルをトレーニング(あるいは微調整)することを意味する。
このプロセスは利用可能なサンプル量に明らかに敏感であり、オンボードシステムには計算コストがかかる可能性がある。
実行可能な代替手段は、大きな事前学習モデルによって生成された埋め込み空間の類似性を評価することである。
我々は、このような微調整不要なOOD検出設定に集中する。
本研究は,最近導入された関係推論の事前学習を詳細に分析し,学習された埋め込みの特性について検討し,クラス間特徴距離とOOD検出精度との相関関係を明らかにする。
クラス分離は選択された事前学習目標に依存するため,クラス間マージンを制御する代替損失関数を提案し,徹底的な実験でその利点を示す。
関連論文リスト
- Recent Advances in OOD Detection: Problems and Approaches [40.27656150526273]
Out-of-Distribution(OOD)検出は、トレーニングカテゴリ空間外のテストサンプルを検出することを目的としている。
評価シナリオ,様々な応用,今後の研究方向性について論じる。
論文 参考訳(メタデータ) (2024-09-18T11:30:30Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Expecting The Unexpected: Towards Broad Out-Of-Distribution Detection [9.656342063882555]
5種類の分布変化について検討し,OOD検出手法の性能評価を行った。
その結果,これらの手法は未知のクラスの検出に優れるが,他のタイプの分散シフトに遭遇した場合,その性能は不整合であることがわかった。
我々は、より一貫性があり包括的なOOD検出ソリューションを提供するアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T14:52:44Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Plugin estimators for selective classification with out-of-distribution
detection [67.28226919253214]
現実世界の分類器は、信頼性の低いサンプルの予測を控えることの恩恵を受けることができる。
これらの設定は、選択分類(SC)とアウト・オブ・ディストリビューション(OOD)の検出文献において広範囲に研究されている。
OOD検出による選択分類に関する最近の研究は、これらの問題の統一的な研究を議論している。
本稿では,既存の手法を理論的に基礎づけ,有効かつ一般化したSCOD用プラグイン推定器を提案する。
論文 参考訳(メタデータ) (2023-01-29T07:45:17Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - An Effective Baseline for Robustness to Distributional Shift [5.627346969563955]
ディープラーニングシステムの安全なデプロイには,トレーニング中に見られるものと異なる入力のカテゴリに直面した場合,確実な予測を控えることが重要な要件である。
本論文では, 吸収の原理を用いた分布異常検出の簡便かつ高効率な手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:46:11Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Uncertainty-Based Out-of-Distribution Classification in Deep
Reinforcement Learning [17.10036674236381]
アウト・オブ・ディストリビューションデータの誤予測は、機械学習システムにおける安全性の危機的状況を引き起こす可能性がある。
我々は不確実性に基づくOOD分類のためのフレームワークUBOODを提案する。
UBOODはアンサンブルに基づく推定器と組み合わせることで,信頼性の高い分類結果が得られることを示す。
論文 参考訳(メタデータ) (2019-12-31T09:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。