論文の概要: Calibrated Out-of-Distribution Detection with a Generic Representation
- arxiv url: http://arxiv.org/abs/2303.13148v2
- Date: Tue, 5 Sep 2023 10:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 06:06:01.762601
- Title: Calibrated Out-of-Distribution Detection with a Generic Representation
- Title(参考訳): ジェネリック表現を用いたキャリブレーションアウトオブディストリビューション検出
- Authors: Tomas Vojir, Jan Sochman, Rahaf Aljundi, Jiri Matas
- Abstract要約: アウト・オブ・ディストリビューション検出(Out-of-distriion detection)は、視覚モデルを実際にデプロイする際の一般的な問題であり、安全クリティカルなアプリケーションにおいて重要なビルディングブロックである。
GROODと呼ばれる新しい OOD 法を提案する。これは,OOD 検出をベイマン・ピアソンのタスクとして定式化し,高い校正スコアを付与し,優れた性能を実現する。
この手法は多くのOODベンチマークで最先端の性能を達成し、いくつかのベンチマークでほぼ完璧な性能を達成した。
- 参考スコア(独自算出の注目度): 28.658200157111505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Out-of-distribution detection is a common issue in deploying vision models in
practice and solving it is an essential building block in safety critical
applications. Most of the existing OOD detection solutions focus on improving
the OOD robustness of a classification model trained exclusively on
in-distribution (ID) data. In this work, we take a different approach and
propose to leverage generic pre-trained representation. We propose a novel OOD
method, called GROOD, that formulates the OOD detection as a Neyman-Pearson
task with well calibrated scores and which achieves excellent performance,
predicated by the use of a good generic representation. Only a trivial training
process is required for adapting GROOD to a particular problem. The method is
simple, general, efficient, calibrated and with only a few hyper-parameters.
The method achieves state-of-the-art performance on a number of OOD benchmarks,
reaching near perfect performance on several of them. The source code is
available at https://github.com/vojirt/GROOD.
- Abstract(参考訳): 分散検出は、実際のビジョンモデルのデプロイにおいて一般的な問題であり、それを解決することは、安全クリティカルなアプリケーションにおいて必須のビルディングブロックである。
既存のOOD検出ソリューションのほとんどは、ID(In-distriion)データに特化して訓練された分類モデルのOODロバスト性の改善に重点を置いている。
本研究では,異なるアプローチを採り,汎用的な事前学習表現の活用を提案する。
GROODと呼ばれる新しい OOD 法を提案する。これは,OOD 検出をベイマン・ピアソンのタスクとしてよく校正されたスコアで定式化し,優れた汎用表現によって予測される優れた性能を実現する。
特定の問題にグロッドを適用するには、簡単なトレーニングプロセスのみが必要である。
この方法は単純で、一般的で、効率良く、校正され、数個のハイパーパラメータしか持たない。
この手法は多くのOODベンチマークで最先端の性能を達成し、いくつかのベンチマークでほぼ完璧な性能を達成した。
ソースコードはhttps://github.com/vojirt/grood.comで入手できる。
関連論文リスト
- Towards Reliable AI Model Deployments: Multiple Input Mixup for
Out-of-Distribution Detection [4.985768723667418]
本稿では,OOD(Out-of-Distribution)検出問題の解法を提案する。
本手法は, 単一エポック微調整によるOOD検出性能の向上に有効である。
我々の方法は、ゼロからモデルを訓練する必要がなく、簡単に分類器にアタッチできる。
論文 参考訳(メタデータ) (2023-12-24T15:31:51Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - OOD Aware Supervised Contrastive Learning [13.329080722482187]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習モデルの安全なデプロイにおいて重要な問題である。
我々は、Supervised Contrastive (SupCon)トレーニングで学んだ強力な表現を活用し、OODデータに対する堅牢性を学ぶための総合的なアプローチを提案する。
我々の解は単純で効率的であり、閉集合教師付きコントラスト表現学習の自然な拡張として機能する。
論文 参考訳(メタデータ) (2023-10-03T10:38:39Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Boosting Out-of-Distribution Detection with Multiple Pre-trained Models [41.66566916581451]
事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
論文 参考訳(メタデータ) (2022-12-24T12:11:38Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - Boosting Out-of-distribution Detection with Typical Features [22.987563801433595]
オフ・オブ・ディストリビューション(OOD)検出は、現実世界のシナリオにおけるディープニューラルネットワークの信頼性と安全性を保証するための重要なタスクである。
本稿では,その特徴を定式化してOODスコアを定式化して,信頼性の高い不確実性推定を実現することを提案する。
一般的なベンチマーク(CIFAR)と大きなラベル空間を持つ高解像度ベンチマーク(ImageNet)の両方において,本手法の優位性を評価する。
論文 参考訳(メタデータ) (2022-10-09T08:44:22Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - No True State-of-the-Art? OOD Detection Methods are Inconsistent across
Datasets [69.725266027309]
アウト・オブ・ディストリビューション検出は、信頼できるMLシステムの重要なコンポーネントである。
本研究では,これらの手法が16対の標準セット上でのOOD検出よりも本質的に優れていることを示す。
また、ある(ID, OOD)ペアにおいて他の(ID, OOD)ペアよりも優れる手法は、低データ方式ではそうしない可能性があることを示す。
論文 参考訳(メタデータ) (2021-09-12T16:35:00Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。