論文の概要: DCV-ROOD Evaluation Framework: Dual Cross-Validation for Robust Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2509.05778v1
- Date: Sat, 06 Sep 2025 17:20:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.709062
- Title: DCV-ROOD Evaluation Framework: Dual Cross-Validation for Robust Out-of-Distribution Detection
- Title(参考訳): DCV-ROOD評価フレームワーク:ロバストアウトオブディストリビューション検出のためのデュアルクロスバリデーション
- Authors: Arantxa Urrea-Castaño, Nicolás Segura-Kunsagi, Juan Luis Suárez-Díaz, Rosana Montes, Francisco Herrera,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、人工知能システムの堅牢性を高める上で重要な役割を果たしている。
クロスバリデーション(CV)は、学習アルゴリズムの性能を合理的に推定するための、非常に効果的なツールであることが証明されている。
本研究はOOD検出モデルのロバストな評価のための二重CVフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.9726444682922897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection plays a key role in enhancing the robustness of artificial intelligence systems by identifying inputs that differ significantly from the training distribution, thereby preventing unreliable predictions and enabling appropriate fallback mechanisms. Developing reliable OOD detection methods is a significant challenge, and rigorous evaluation of these techniques is essential for ensuring their effectiveness, as it allows researchers to assess their performance under diverse conditions and to identify potential limitations or failure modes. Cross-validation (CV) has proven to be a highly effective tool for providing a reasonable estimate of the performance of a learning algorithm. Although OOD scenarios exhibit particular characteristics, an appropriate adaptation of CV can lead to a suitable evaluation framework for this setting. This work proposes a dual CV framework for robust evaluation of OOD detection models, aimed at improving the reliability of their assessment. The proposed evaluation framework aims to effectively integrate in-distribution (ID) and OOD data while accounting for their differing characteristics. To achieve this, ID data are partitioned using a conventional approach, whereas OOD data are divided by grouping samples based on their classes. Furthermore, we analyze the context of data with class hierarchy to propose a data splitting that considers the entire class hierarchy to obtain fair ID-OOD partitions to apply the proposed evaluation framework. This framework is called Dual Cross-Validation for Robust Out-of-Distribution Detection (DCV-ROOD). To test the validity of the evaluation framework, we selected a set of state-of-the-art OOD detection methods, both with and without outlier exposure. The results show that the method achieves very fast convergence to the true performance.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、トレーニング分布と大きく異なる入力を識別し、信頼性の低い予測を防止し、適切なフォールバック機構を実現することにより、人工知能システムの堅牢性を高める上で重要な役割を果たしている。
信頼性の高いOOD検出手法の開発は重要な課題であり、研究者が様々な条件下での性能を評価し、潜在的な制限や障害モードを特定することができるため、これらの手法の厳密な評価は、その有効性を保証するために不可欠である。
クロスバリデーション(CV)は、学習アルゴリズムの性能を合理的に推定するための、非常に効果的なツールであることが証明されている。
OODシナリオは特定の特徴を示すが、CVの適切な適応は、この設定に適した評価フレームワークに繋がる可能性がある。
本研究は,OOD検出モデルの信頼性向上を目的とした,OOD検出モデルのロバストな評価のためのデュアルCVフレームワークを提案する。
提案する評価フレームワークは,異なる特性を考慮しつつ,IDとOODデータを効果的に統合することを目的としている。
これを実現するために、IDデータは従来のアプローチで分割されるが、OODデータはそれらのクラスに基づいてサンプルをグループ化することで分割される。
さらに,データコンテキストをクラス階層で解析し,クラス階層全体を考慮し,公平なID-OODパーティションを取得して評価フレームワークを適用するデータ分割を提案する。
このフレームワークはDCV-ROOD(Dual Cross-Validation for Robust Out-of-Distribution Detection)と呼ばれる。
評価フレームワークの有効性を検証するため,我々は,アウトリーチ露光の有無に関わらず,最先端のOOD検出手法のセットを選択した。
その結果,本手法は実性能に非常に高速に収束することがわかった。
関連論文リスト
- Self-Calibrated Tuning of Vision-Language Models for Out-of-Distribution Detection [24.557227100200215]
オープンソースアプリケーションに信頼性の高い機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
近年のCLIPによるOOD検出の進歩は,IDデータから抽出したOOD特徴に即時調整を施すことによって有望な結果を示した。
提案手法は,SCT(Self-Calibrated Tuning)と呼ばれる新しいフレームワークで,与えられた数ショットのIDデータのみを用いて効果的なOOD検出を行う。
論文 参考訳(メタデータ) (2024-11-05T02:29:16Z) - Margin-bounded Confidence Scores for Out-of-Distribution Detection [2.373572816573706]
本稿では,非自明なOOD検出問題に対処するため,Margin bounded Confidence Scores (MaCS) と呼ばれる新しい手法を提案する。
MaCS は ID と OOD のスコアの差を拡大し、決定境界をよりコンパクトにする。
画像分類タスクのための様々なベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-22T05:40:25Z) - Distilling the Unknown to Unveil Certainty [66.29929319664167]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)データから逸脱するテストサンプルを識別し、ネットワークの堅牢性と信頼性を確保するために重要である。
本稿では,ネットワークからOOD感受性情報を抽出し,IDとOODサンプルを識別可能なバイナリ分類器を開発するための,OOD知識蒸留のためのフレキシブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-14T08:05:02Z) - OOD Aware Supervised Contrastive Learning [13.329080722482187]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習モデルの安全なデプロイにおいて重要な問題である。
我々は、Supervised Contrastive (SupCon)トレーニングで学んだ強力な表現を活用し、OODデータに対する堅牢性を学ぶための総合的なアプローチを提案する。
我々の解は単純で効率的であり、閉集合教師付きコントラスト表現学習の自然な拡張として機能する。
論文 参考訳(メタデータ) (2023-10-03T10:38:39Z) - Continual Evidential Deep Learning for Out-of-Distribution Detection [20.846788009755183]
不確実性に基づくディープラーニングモデルは、正確で信頼性の高い予測を提供する能力に対して、大きな関心を集めている。
Evidential Deep Learningは、単一決定論的ニューラルネットワークによるアウト・オブ・ディストリビューション(OOD)データの検出において、優れたパフォーマンスを実現している。
本稿では,オブジェクト分類とOOD検出を同時に行うために,明らかなディープラーニング手法を連続的な学習フレームワークに統合することを提案する。
論文 参考訳(メタデータ) (2023-09-06T13:36:59Z) - Beyond AUROC & co. for evaluating out-of-distribution detection
performance [50.88341818412508]
安全(r)AIとの関連性を考えると,OOD検出法の比較の基礎が実用的ニーズと整合しているかどうかを検討することが重要である。
我々は,IDとOODの分離が不十分なことを明示する新しい指標であるAUTC(Area Under the Threshold Curve)を提案する。
論文 参考訳(メタデータ) (2023-06-26T12:51:32Z) - AUTO: Adaptive Outlier Optimization for Test-Time OOD Detection [79.51071170042972]
Out-of-Distribution (OOD) 検出は、任意のトレーニングインディストリビューション(ID)クラスに該当しないテストサンプルを検出することを目的としている。
データ安全性とプライバシにより、さまざまなシナリオに対して、事前にタスク固有の外れ値の収集が不可能になる。
テスト中にラベルのないデータストリームから実際のOODデータを利用することができる。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Towards Realistic Out-of-Distribution Detection: A Novel Evaluation
Framework for Improving Generalization in OOD Detection [14.541761912174799]
本稿では,OOD(Out-of-Distribution)検出のための新しい評価フレームワークを提案する。
より現実的な設定で機械学習モデルのパフォーマンスを評価することを目的としている。
論文 参考訳(メタデータ) (2022-11-20T07:30:15Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。