論文の概要: Calibrated Out-of-Distribution Detection with a Generic Representation
- arxiv url: http://arxiv.org/abs/2303.13148v2
- Date: Tue, 5 Sep 2023 10:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 06:06:01.762601
- Title: Calibrated Out-of-Distribution Detection with a Generic Representation
- Title(参考訳): ジェネリック表現を用いたキャリブレーションアウトオブディストリビューション検出
- Authors: Tomas Vojir, Jan Sochman, Rahaf Aljundi, Jiri Matas
- Abstract要約: アウト・オブ・ディストリビューション検出(Out-of-distriion detection)は、視覚モデルを実際にデプロイする際の一般的な問題であり、安全クリティカルなアプリケーションにおいて重要なビルディングブロックである。
GROODと呼ばれる新しい OOD 法を提案する。これは,OOD 検出をベイマン・ピアソンのタスクとして定式化し,高い校正スコアを付与し,優れた性能を実現する。
この手法は多くのOODベンチマークで最先端の性能を達成し、いくつかのベンチマークでほぼ完璧な性能を達成した。
- 参考スコア(独自算出の注目度): 28.658200157111505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Out-of-distribution detection is a common issue in deploying vision models in
practice and solving it is an essential building block in safety critical
applications. Most of the existing OOD detection solutions focus on improving
the OOD robustness of a classification model trained exclusively on
in-distribution (ID) data. In this work, we take a different approach and
propose to leverage generic pre-trained representation. We propose a novel OOD
method, called GROOD, that formulates the OOD detection as a Neyman-Pearson
task with well calibrated scores and which achieves excellent performance,
predicated by the use of a good generic representation. Only a trivial training
process is required for adapting GROOD to a particular problem. The method is
simple, general, efficient, calibrated and with only a few hyper-parameters.
The method achieves state-of-the-art performance on a number of OOD benchmarks,
reaching near perfect performance on several of them. The source code is
available at https://github.com/vojirt/GROOD.
- Abstract(参考訳): 分散検出は、実際のビジョンモデルのデプロイにおいて一般的な問題であり、それを解決することは、安全クリティカルなアプリケーションにおいて必須のビルディングブロックである。
既存のOOD検出ソリューションのほとんどは、ID(In-distriion)データに特化して訓練された分類モデルのOODロバスト性の改善に重点を置いている。
本研究では,異なるアプローチを採り,汎用的な事前学習表現の活用を提案する。
GROODと呼ばれる新しい OOD 法を提案する。これは,OOD 検出をベイマン・ピアソンのタスクとしてよく校正されたスコアで定式化し,優れた汎用表現によって予測される優れた性能を実現する。
特定の問題にグロッドを適用するには、簡単なトレーニングプロセスのみが必要である。
この方法は単純で、一般的で、効率良く、校正され、数個のハイパーパラメータしか持たない。
この手法は多くのOODベンチマークで最先端の性能を達成し、いくつかのベンチマークでほぼ完璧な性能を達成した。
ソースコードはhttps://github.com/vojirt/grood.comで入手できる。
関連論文リスト
- The Best of Both Worlds: On the Dilemma of Out-of-distribution Detection [75.65876949930258]
アウト・オブ・ディストリビューション(OOD)検出はモデル信頼性に不可欠である。
我々は,OODの一般化能力を秘かに犠牲にすることで,最先端手法のOOD検出性能が向上することを示す。
論文 参考訳(メタデータ) (2024-10-12T07:02:04Z) - Scalable Ensemble Diversification for OOD Generalization and Detection [68.8982448081223]
SEDは、ハエのハードトレーニングサンプルを特定し、アンサンブルメンバーにこれらについて意見の一致を奨励する。
モデル間でのペアの相違を解消する既存の方法において,コストのかかる計算を避ける方法を示す。
OODの一般化のために,出力空間(古典的)アンサンブルや重量空間アンサンブル(モデルスープ)など,複数の環境での多様化による大きなメリットを観察する。
論文 参考訳(メタデータ) (2024-09-25T10:30:24Z) - SeTAR: Out-of-Distribution Detection with Selective Low-Rank Approximation [5.590633742488972]
ニューラルネットワークの安全なデプロイには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
トレーニング不要なOOD検出手法であるSeTARを提案する。
SeTARは、単純なグリーディ探索アルゴリズムを用いて、モデルの重量行列のポストホックな修正によるOOD検出を強化する。
私たちの研究は、OOD検出のためのスケーラブルで効率的なソリューションを提供し、この分野で新しい最先端を設定します。
論文 参考訳(メタデータ) (2024-06-18T13:55:13Z) - WeiPer: OOD Detection using Weight Perturbations of Class Projections [11.130659240045544]
入力のよりリッチな表現を生成する最終完全連結層にクラスプロジェクションの摂動を導入する。
我々はOpenOODフレームワークの複数のベンチマークで最先端のOOD検出結果を得る。
論文 参考訳(メタデータ) (2024-05-27T13:38:28Z) - Towards Reliable AI Model Deployments: Multiple Input Mixup for
Out-of-Distribution Detection [4.985768723667418]
本稿では,OOD(Out-of-Distribution)検出問題の解法を提案する。
本手法は, 単一エポック微調整によるOOD検出性能の向上に有効である。
我々の方法は、ゼロからモデルを訓練する必要がなく、簡単に分類器にアタッチできる。
論文 参考訳(メタデータ) (2023-12-24T15:31:51Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - OOD Aware Supervised Contrastive Learning [13.329080722482187]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習モデルの安全なデプロイにおいて重要な問題である。
我々は、Supervised Contrastive (SupCon)トレーニングで学んだ強力な表現を活用し、OODデータに対する堅牢性を学ぶための総合的なアプローチを提案する。
我々の解は単純で効率的であり、閉集合教師付きコントラスト表現学習の自然な拡張として機能する。
論文 参考訳(メタデータ) (2023-10-03T10:38:39Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - Boosting Out-of-Distribution Detection with Multiple Pre-trained Models [41.66566916581451]
事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
論文 参考訳(メタデータ) (2022-12-24T12:11:38Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。