論文の概要: One Model, Many Behaviors: Training-Induced Effects on Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2601.10836v1
- Date: Thu, 15 Jan 2026 20:11:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.283427
- Title: One Model, Many Behaviors: Training-Induced Effects on Out-of-Distribution Detection
- Title(参考訳): 一つのモデル, 多くの行動: アウト・オブ・ディストリビューション検出に対する訓練誘発効果
- Authors: Gerhard Krumpl, Henning Avenhaus, Horst Possegger,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、オープンワールド環境で堅牢で信頼性の高い機械学習システムをデプロイするために不可欠である。
56のImageNet学習モデルに対して,21のポストホック,最先端のOOD検出手法をベンチマークした。
我々は,訓練戦略,検出器選択,OOD性能の強い相互依存性を観察し,一つの手法が普遍的に最適であることを示す。
- 参考スコア(独自算出の注目度): 12.06155749281499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) detection is crucial for deploying robust and reliable machine-learning systems in open-world settings. Despite steady advances in OOD detectors, their interplay with modern training pipelines that maximize in-distribution (ID) accuracy and generalization remains under-explored. We investigate this link through a comprehensive empirical study. Fixing the architecture to the widely adopted ResNet-50, we benchmark 21 post-hoc, state-of-the-art OOD detection methods across 56 ImageNet-trained models obtained via diverse training strategies and evaluate them on eight OOD test sets. Contrary to the common assumption that higher ID accuracy implies better OOD detection performance, we uncover a non-monotonic relationship: OOD performance initially improves with accuracy but declines once advanced training recipes push accuracy beyond the baseline. Moreover, we observe a strong interdependence between training strategy, detector choice, and resulting OOD performance, indicating that no single method is universally optimal.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、オープンワールド環境で堅牢で信頼性の高い機械学習システムをデプロイするために不可欠である。
OOD検出器の進歩は着実に進んでいるが、分布内(ID)の精度と一般化を最大化する近代的な訓練パイプラインとの相互作用はいまだ解明されていない。
我々はこのリンクを総合的な実証研究を通して調査する。
アーキテクチャを広く採用されているResNet-50に固定し、56のImageNetトレーニングモデルに対して、21のポストホック、最先端のOOD検出手法をベンチマークし、8つのOODテストセットで評価した。
高いID精度がOOD検出性能を向上させるという一般的な仮定とは対照的に、非単調な関係が明らかになる: OOD性能は最初は精度が向上するが、先進的なトレーニングレシピがベースラインを超えて精度を向上すると低下する。
さらに, トレーニング戦略, 検出器選択, 結果のOOD性能の強い相互依存性を観察し, 一つの手法が普遍的に最適であることを示す。
関連論文リスト
- Retrieval-Augmented Prompt for OOD Detection [23.092622473716144]
Out-of-Distribution (OOD) 検出は、ハードウェア内のマシンラーニングモデルの信頼性の高いデプロイに不可欠である。
我々は、検索補助プロンプト(RAP)と呼ばれる新しいOOD検出法を提案する。
RAPは、外部知識を取得することで、事前訓練された視覚言語モデルのプロンプトを強化し、OOD検出のためのセマンティックインスペクションを強化する。
RAPは大規模OOD検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-14T11:52:43Z) - OODD: Test-time Out-of-Distribution Detection with Dynamic Dictionary [10.19006278808466]
ディープラーニングモデルでは、アウト・オブ・ディストリビューション(OOD)検出が依然として難しい。
我々は,OOD辞書を微調整なしで動的に保守・更新する新しいテスト時間OOD検出手法OODDを提案する。
我々は,検出性能を維持しながら3倍の高速化を実現する,KNNベースのOOD検出フレームワークの最適化版を提案する。
論文 参考訳(メタデータ) (2025-03-13T15:41:56Z) - The Best of Both Worlds: On the Dilemma of Out-of-distribution Detection [75.65876949930258]
アウト・オブ・ディストリビューション(OOD)検出はモデル信頼性に不可欠である。
我々は,OODの一般化能力を秘かに犠牲にすることで,最先端手法のOOD検出性能が向上することを示す。
論文 参考訳(メタデータ) (2024-10-12T07:02:04Z) - AUTO: Adaptive Outlier Optimization for Test-Time OOD Detection [79.51071170042972]
Out-of-Distribution (OOD) 検出は、任意のトレーニングインディストリビューション(ID)クラスに該当しないテストサンプルを検出することを目的としている。
データ安全性とプライバシにより、さまざまなシナリオに対して、事前にタスク固有の外れ値の収集が不可能になる。
テスト中にラベルのないデータストリームから実際のOODデータを利用することができる。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Towards Realistic Out-of-Distribution Detection: A Novel Evaluation
Framework for Improving Generalization in OOD Detection [14.541761912174799]
本稿では,OOD(Out-of-Distribution)検出のための新しい評価フレームワークを提案する。
より現実的な設定で機械学習モデルのパフォーマンスを評価することを目的としている。
論文 参考訳(メタデータ) (2022-11-20T07:30:15Z) - ReAct: Out-of-distribution Detection With Rectified Activations [20.792140933660075]
オフ・オブ・ディストリビューション (OOD) 検出は, 実用的重要性から近年注目されている。
主な課題の1つは、モデルがしばしばOODデータに対して高い信頼性の予測を生成することである。
我々は,OODデータに対するモデル過信を低減するためのシンプルで効果的な手法であるReActを提案する。
論文 参考訳(メタデータ) (2021-11-24T21:02:07Z) - ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining [51.19164318924997]
インフォメーション・アウトリエ・マイニングによるアドリアトレーニングは、OOD検出の堅牢性を向上させる。
ATOMは,古典的,敵対的なOOD評価タスクの幅広いファミリーの下で,最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-26T20:58:05Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。