論文の概要: Towards Realistic Out-of-Distribution Detection: A Novel Evaluation
Framework for Improving Generalization in OOD Detection
- arxiv url: http://arxiv.org/abs/2211.10892v2
- Date: Thu, 31 Aug 2023 12:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 21:07:49.791367
- Title: Towards Realistic Out-of-Distribution Detection: A Novel Evaluation
Framework for Improving Generalization in OOD Detection
- Title(参考訳): リアルなアウト・オブ・ディストリビューション検出に向けて:OOD検出の一般化改善のための新しい評価フレームワーク
- Authors: Vahid Reza Khazaie and Anthony Wong and Mohammad Sabokrou
- Abstract要約: 本稿では,OOD(Out-of-Distribution)検出のための新しい評価フレームワークを提案する。
より現実的な設定で機械学習モデルのパフォーマンスを評価することを目的としている。
- 参考スコア(独自算出の注目度): 14.541761912174799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel evaluation framework for Out-of-Distribution
(OOD) detection that aims to assess the performance of machine learning models
in more realistic settings. We observed that the real-world requirements for
testing OOD detection methods are not satisfied by the current testing
protocols. They usually encourage methods to have a strong bias towards a low
level of diversity in normal data. To address this limitation, we propose new
OOD test datasets (CIFAR-10-R, CIFAR-100-R, and ImageNet-30-R) that can allow
researchers to benchmark OOD detection performance under realistic distribution
shifts. Additionally, we introduce a Generalizability Score (GS) to measure the
generalization ability of a model during OOD detection. Our experiments
demonstrate that improving the performance on existing benchmark datasets does
not necessarily improve the usability of OOD detection models in real-world
scenarios. While leveraging deep pre-trained features has been identified as a
promising avenue for OOD detection research, our experiments show that
state-of-the-art pre-trained models tested on our proposed datasets suffer a
significant drop in performance. To address this issue, we propose a
post-processing stage for adapting pre-trained features under these
distribution shifts before calculating the OOD scores, which significantly
enhances the performance of state-of-the-art pre-trained models on our
benchmarks.
- Abstract(参考訳): 本稿では,よりリアルな環境での機械学習モデルの性能評価を目的とした,out-of-distribution (ood) 検出のための新しい評価フレームワークを提案する。
我々は,OOD検出手法の実際の要件が,現在の試験プロトコルで満たされていないことを観察した。
彼らは通常、通常のデータの低レベルの多様性に対して強いバイアスを持つことを奨励します。
この制限に対処するために、研究者が現実的な分布シフトの下でOOD検出性能をベンチマークできる新しいOODテストデータセット(CIFAR-10-R、CIFAR-100-R、ImageNet-30-R)を提案する。
さらに、OOD検出時のモデルの一般化能力を測定するための一般化可能性スコア(GS)を導入する。
実世界のシナリオにおいて,既存のベンチマークデータセットの性能向上はOOD検出モデルのユーザビリティを必ずしも向上させるものではないことを実証した。
OOD検出研究の有望な道として、深い事前学習機能を活用することが確認されているが、我々の実験は、提案したデータセットでテストされた最先端の事前訓練モデルの性能が著しく低下していることを示しています。
この問題に対処するために,OODスコアを計算する前に,これらの分散シフトの下で事前学習した特徴を適応するための後処理ステージを提案する。
関連論文リスト
- Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Can Pre-trained Networks Detect Familiar Out-of-Distribution Data? [37.36999826208225]
PT-OODが事前学習ネットワークのOOD検出性能に及ぼす影響について検討した。
特徴空間におけるPT-OODの低線形分離性はPT-OOD検出性能を著しく低下させることがわかった。
本稿では,大規模事前学習モデルに対する一意な解を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:00Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Unsupervised Evaluation of Out-of-distribution Detection: A Data-centric
Perspective [55.45202687256175]
アウト・オブ・ディストリビューション(OOD)検出法は、個々のテストサンプルがイン・ディストリビューション(IND)なのかOODなのかという、試験対象の真実を持っていると仮定する。
本稿では,OOD検出における教師なし評価問題を初めて紹介する。
我々は,OOD検出性能の教師なし指標としてGscoreを計算する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T13:34:35Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - How Useful are Gradients for OOD Detection Really? [5.459639971144757]
Out of Distribution(OOD)検出は、リアルタイムアプリケーションに高性能な機械学習モデルをデプロイする上で重要な課題である。
OOD検出のための勾配法を詳細に解析し,比較する。
本稿では,OOD検出における性能と計算効率の両面において,従来のベースラインよりも向上した汎用的,非段階的なOOD検出手法を提案する。
論文 参考訳(メタデータ) (2022-05-20T21:10:05Z) - RODD: A Self-Supervised Approach for Robust Out-of-Distribution
Detection [12.341250124228859]
本稿では,分散データセットに依存しない簡易かつ効果的なOOD検出手法を提案する。
提案手法は, コンパクトな低次元空間上に埋没するトレーニングサンプルの自己教師型特徴学習に依存する。
自己教師付きコントラスト学習を用いた事前学習モデルでは、潜伏空間における一次元特徴学習のより良いモデルが得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-06T03:05:58Z) - ReAct: Out-of-distribution Detection With Rectified Activations [20.792140933660075]
オフ・オブ・ディストリビューション (OOD) 検出は, 実用的重要性から近年注目されている。
主な課題の1つは、モデルがしばしばOODデータに対して高い信頼性の予測を生成することである。
我々は,OODデータに対するモデル過信を低減するためのシンプルで効果的な手法であるReActを提案する。
論文 参考訳(メタデータ) (2021-11-24T21:02:07Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。