論文の概要: Boosting Out-of-Distribution Detection with Multiple Pre-trained Models
- arxiv url: http://arxiv.org/abs/2212.12720v1
- Date: Sat, 24 Dec 2022 12:11:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:30:26.316931
- Title: Boosting Out-of-Distribution Detection with Multiple Pre-trained Models
- Title(参考訳): 複数の事前学習モデルによる分布検出の高速化
- Authors: Feng Xue, Zi He, Chuanlong Xie, Falong Tan, Zhenguo Li
- Abstract要約: 事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
- 参考スコア(独自算出の注目度): 41.66566916581451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-Distribution (OOD) detection, i.e., identifying whether an input is
sampled from a novel distribution other than the training distribution, is a
critical task for safely deploying machine learning systems in the open world.
Recently, post hoc detection utilizing pre-trained models has shown promising
performance and can be scaled to large-scale problems. This advance raises a
natural question: Can we leverage the diversity of multiple pre-trained models
to improve the performance of post hoc detection methods? In this work, we
propose a detection enhancement method by ensembling multiple detection
decisions derived from a zoo of pre-trained models. Our approach uses the
p-value instead of the commonly used hard threshold and leverages a fundamental
framework of multiple hypothesis testing to control the true positive rate of
In-Distribution (ID) data. We focus on the usage of model zoos and provide
systematic empirical comparisons with current state-of-the-art methods on
various OOD detection benchmarks. The proposed ensemble scheme shows consistent
improvement compared to single-model detectors and significantly outperforms
the current competitive methods. Our method substantially improves the relative
performance by 65.40% and 26.96% on the CIFAR10 and ImageNet benchmarks.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出、すなわち、トレーニング分布以外の新しい分布から入力がサンプリングされるかどうかを特定することは、オープンな世界で機械学習システムを安全にデプロイするための重要なタスクである。
近年,事前学習モデルを用いたポストホック検出は有望な性能を示し,大規模にスケールできる。
複数の事前訓練されたモデルの多様性を活用して、ポストホック検出手法の性能を向上させることができるか?
本研究では,事前学習モデルの動物園から得られた複数の検出判断をセンセンシングして検出強化手法を提案する。
提案手法では,一般に使用されるハードしきい値の代わりにp値を用い,複数の仮説テストの基本的な枠組みを活用し,分布内データ(id)の正の正の率を制御する。
モデル動物園の利用に焦点をあて,ood検出ベンチマークにおける現状手法との系統的実証的比較を行った。
提案手法は, 単一モデル検出器と比較して一貫した改善を示し, 現在の競合手法を著しく上回っている。
CIFAR10とImageNetのベンチマークでは,相対性能を65.40%,26.96%向上した。
関連論文リスト
- DPU: Dynamic Prototype Updating for Multimodal Out-of-Distribution Detection [10.834698906236405]
機械学習モデルの堅牢性を保証するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
マルチモーダルモデルの最近の進歩は、検出性能を高めるために複数のモダリティを活用する可能性を示している。
マルチモーダルOOD検出のための新しいプラグイン・アンド・プレイフレームワークであるDynamic Prototype Updating (DPU)を提案する。
論文 参考訳(メタデータ) (2024-11-12T22:43:16Z) - Enhancing Out-of-Distribution Detection with Multitesting-based Layer-wise Feature Fusion [11.689517005768046]
アウト・オブ・ディストリビューション(Out-of-distriion)サンプルは、トレーニング分布と比較して、局所的またはグローバルな特徴の変化を示す可能性がある。
本稿では,新しいフレームワーク,Multitesting-based Layer-wise Out-of-Distribution (OOD) を提案する。
本手法は, ベースライン法と比較して, 分布外検出の性能を効果的に向上させる。
論文 参考訳(メタデータ) (2024-03-16T04:35:04Z) - Towards Reliable AI Model Deployments: Multiple Input Mixup for
Out-of-Distribution Detection [4.985768723667418]
本稿では,OOD(Out-of-Distribution)検出問題の解法を提案する。
本手法は, 単一エポック微調整によるOOD検出性能の向上に有効である。
我々の方法は、ゼロからモデルを訓練する必要がなく、簡単に分類器にアタッチできる。
論文 参考訳(メタデータ) (2023-12-24T15:31:51Z) - Expecting The Unexpected: Towards Broad Out-Of-Distribution Detection [9.656342063882555]
5種類の分布変化について検討し,OOD検出手法の性能評価を行った。
その結果,これらの手法は未知のクラスの検出に優れるが,他のタイプの分散シフトに遭遇した場合,その性能は不整合であることがわかった。
我々は、より一貫性があり包括的なOOD検出ソリューションを提供するアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T14:52:44Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Predicted Embedding Power Regression for Large-Scale Out-of-Distribution
Detection [77.1596426383046]
本研究では,学習過程において学習したラベル分布に基づいて,予測されたクラスラベルの確率を計算する手法を開発した。
提案手法は,計算コストの最小化のみで,現在の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-03-07T18:28:39Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。