論文の概要: ID and OOD Performance Are Sometimes Inversely Correlated on Real-world
Datasets
- arxiv url: http://arxiv.org/abs/2209.00613v4
- Date: Fri, 19 May 2023 07:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 19:41:48.526049
- Title: ID and OOD Performance Are Sometimes Inversely Correlated on Real-world
Datasets
- Title(参考訳): IDとOODのパフォーマンスは実世界のデータセットと逆相関することがある
- Authors: Damien Teney, Yong Lin, Seong Joon Oh, Ehsan Abbasnejad
- Abstract要約: コンピュータビジョンとNLPにおけるモデルの分布内(ID)と分布外(OOD)の性能を比較した。
いくつかの研究は、頻繁な正の相関を報告し、驚くべきことに、必要なトレードオフを示す逆相関を観測することはない。
本稿では,実世界のデータにおいて,IDとOOD性能の逆相関が生じることを複数のデータセットで示す。
- 参考スコア(独自算出の注目度): 30.82918381331854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several studies have compared the in-distribution (ID) and
out-of-distribution (OOD) performance of models in computer vision and NLP.
They report a frequent positive correlation and some surprisingly never even
observe an inverse correlation indicative of a necessary trade-off. The
possibility of inverse patterns is important to determine whether ID
performance can serve as a proxy for OOD generalization capabilities.
This paper shows with multiple datasets that inverse correlations between ID
and OOD performance do happen in real-world data - not only in theoretical
worst-case settings. We also explain theoretically how these cases can arise
even in a minimal linear setting, and why past studies could miss such cases
due to a biased selection of models.
Our observations lead to recommendations that contradict those found in much
of the current literature. - High OOD performance sometimes requires trading
off ID performance. - Focusing on ID performance alone may not lead to optimal
OOD performance. It may produce diminishing (eventually negative) returns in
OOD performance. - In these cases, studies on OOD generalization that use ID
performance for model selection (a common recommended practice) will
necessarily miss the best-performing models, making these studies blind to a
whole range of phenomena.
- Abstract(参考訳): いくつかの研究は、コンピュータビジョンとNLPにおけるモデルの分布内(ID)と分布外(OOD)のパフォーマンスを比較している。
彼らは頻繁な正の相関を報告し、驚くべきことに、必要なトレードオフを示す逆相関も観測していない。
逆パターンの可能性は、IDパフォーマンスがOOD一般化機能のプロキシになるかどうかを決定するために重要である。
本稿では,IDとOODのパフォーマンスの逆相関が実世界のデータで発生することを複数のデータセットで示す。
また,これらのケースが最小限の線形設定でもどのように発生するのか,また,モデル選択の偏りが原因で過去の研究がそのようなケースを見逃す可能性がある理由を理論的に説明する。
我々の観察は、現在の文献の多くに見られるものと矛盾する推奨に繋がる。
-高いOODパフォーマンスにはIDパフォーマンスのトレードオフが必要になることがある。
-IDパフォーマンスのみに注目しても、最適なOODパフォーマンスには至らないかもしれない。
OOD性能は低下(最終的には負)する可能性がある。
-これらの場合、モデル選択にIDパフォーマンスを使用するOOD一般化の研究(一般的な推奨慣行)は、必ずしも最高の性能モデルを見落としており、これらの研究はあらゆる現象に盲目である。
関連論文リスト
- A Survey on Evaluation of Out-of-Distribution Generalization [41.39827887375374]
アウト・オブ・ディストリビューション(OOD)の一般化は複雑で基本的な問題である。
本報告は,OOD評価の総合的な評価を行うための最初の試みである。
我々は,OOD性能試験,OOD性能予測,OOD固有の特性評価という3つのパラダイムに分類した。
論文 参考訳(メタデータ) (2024-03-04T09:30:35Z) - Reliability in Semantic Segmentation: Can We Use Synthetic Data? [69.28268603137546]
セマンティックセグメンテーションモデルの現実的信頼性を総合的に評価するために、合成データを具体的に生成する方法を初めて示す。
この合成データは、事前訓練されたセグメンタの堅牢性を評価するために使用される。
セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - Revisiting Out-of-distribution Robustness in NLP: Benchmark, Analysis,
and LLMs Evaluations [111.88727295707454]
本稿では,NLP分野におけるアウト・オブ・ディストリビューション(OOD)のロバスト性に関する研究を再検討する。
本稿では, 明確な分化と分散の困難さを保証するための, ベンチマーク構築プロトコルを提案する。
我々は,OODロバスト性の分析と評価のための事前学習言語モデルの実験を行った。
論文 参考訳(メタデータ) (2023-06-07T17:47:03Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Are Sample-Efficient NLP Models More Robust? [90.54786862811183]
サンプル効率(所定のID精度に到達するために必要なデータ量)とロバスト性(OOD評価モデルの評価方法)の関係について検討する。
高いサンプル効率は、いくつかのモデリング介入やタスクにおいて、より平均的なOODロバスト性にのみ相関するが、それ以外は相関しない。
これらの結果から,サンプル効率向上のための汎用手法は,データセットとタスクに依存した汎用的なOODロバスト性向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-12T17:54:59Z) - Understanding and Testing Generalization of Deep Networks on
Out-of-Distribution Data [30.471871571256198]
ディープネットワークモデルは、In-Distributionデータでは優れた性能を発揮するが、Out-Of-Distributionデータでは著しく失敗する可能性がある。
本研究は,実験的なIDテストの問題を分析し,OODテストパラダイムを設計することを目的とする。
論文 参考訳(メタデータ) (2021-11-17T15:29:07Z) - BEDS-Bench: Behavior of EHR-models under Distributional Shift--A
Benchmark [21.040754460129854]
OOD設定下でのEHRデータ上でのMLモデルの振る舞いを定量化するベンチマークであるBEDS-Benchをリリースする。
BEDS-Bench の学習アルゴリズムを複数評価した結果,一般に分布シフト下での一般化性能の低下が判明した。
論文 参考訳(メタデータ) (2021-07-17T05:53:24Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。