論文の概要: AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection
- arxiv url: http://arxiv.org/abs/2303.12267v1
- Date: Wed, 22 Mar 2023 02:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:37:57.886136
- Title: AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection
- Title(参考訳): AUTO:オンラインテスト時間OOD検出のための適応出力最適化
- Authors: Puning Yang, Jian Liang, Jie Cao, Ran He
- Abstract要約: オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
- 参考スコア(独自算出の注目度): 81.49353397201887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is a crucial aspect of deploying machine
learning models in open-world applications. Empirical evidence suggests that
training with auxiliary outliers substantially improves OOD detection. However,
such outliers typically exhibit a distribution gap compared to the test OOD
data and do not cover all possible test OOD scenarios. Additionally,
incorporating these outliers introduces additional training burdens. In this
paper, we introduce a novel paradigm called test-time OOD detection, which
utilizes unlabeled online data directly at test time to improve OOD detection
performance. While this paradigm is efficient, it also presents challenges such
as catastrophic forgetting. To address these challenges, we propose adaptive
outlier optimization (AUTO), which consists of an in-out-aware filter, an ID
memory bank, and a semantically-consistent objective. AUTO adaptively mines
pseudo-ID and pseudo-OOD samples from test data, utilizing them to optimize
networks in real time during inference. Extensive results on CIFAR-10,
CIFAR-100, and ImageNet benchmarks demonstrate that AUTO significantly enhances
OOD detection performance.
- Abstract(参考訳): out-of-distribution (ood)検出は、機械学習モデルをオープンワールドアプリケーションにデプロイする上で重要な側面である。
実験的な証拠は、補助的外れ値による訓練がOODの検出を大幅に改善することを示している。
しかしながら、このような外れ値は通常、テストoodデータと比較して分布ギャップを示し、可能なすべてのテストoodシナリオをカバーできない。
さらに、これらのアウトレイラを組み込むことで、追加のトレーニング負荷がもたらされる。
本稿では,未ラベルオンラインデータをテスト時に直接利用してOOD検出性能を向上させる,テスト時OOD検出という新しいパラダイムを提案する。
このパラダイムは効率的だが、破滅的な忘れなどの課題も提示する。
これらの課題に対処するために,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
AUTOは、テストデータから擬似IDと擬似OODサンプルを適応的にマイニングし、推論中にリアルタイムでネットワークを最適化する。
CIFAR-10, CIFAR-100, ImageNetベンチマークの結果, AUTOはOOD検出性能を大幅に向上することが示された。
関連論文リスト
- Self-Calibrated Tuning of Vision-Language Models for Out-of-Distribution Detection [24.557227100200215]
オープンソースアプリケーションに信頼性の高い機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
近年のCLIPによるOOD検出の進歩は,IDデータから抽出したOOD特徴に即時調整を施すことによって有望な結果を示した。
提案手法は,SCT(Self-Calibrated Tuning)と呼ばれる新しいフレームワークで,与えられた数ショットのIDデータのみを用いて効果的なOOD検出を行う。
論文 参考訳(メタデータ) (2024-11-05T02:29:16Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Can Pre-trained Networks Detect Familiar Out-of-Distribution Data? [37.36999826208225]
PT-OODが事前学習ネットワークのOOD検出性能に及ぼす影響について検討した。
特徴空間におけるPT-OODの低線形分離性はPT-OOD検出性能を著しく低下させることがわかった。
本稿では,大規模事前学習モデルに対する一意な解を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:00Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Towards Realistic Out-of-Distribution Detection: A Novel Evaluation
Framework for Improving Generalization in OOD Detection [14.541761912174799]
本稿では,OOD(Out-of-Distribution)検出のための新しい評価フレームワークを提案する。
より現実的な設定で機械学習モデルのパフォーマンスを評価することを目的としている。
論文 参考訳(メタデータ) (2022-11-20T07:30:15Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining [51.19164318924997]
インフォメーション・アウトリエ・マイニングによるアドリアトレーニングは、OOD検出の堅牢性を向上させる。
ATOMは,古典的,敵対的なOOD評価タスクの幅広いファミリーの下で,最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-26T20:58:05Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。