論文の概要: AUTO: Adaptive Outlier Optimization for Test-Time OOD Detection
- arxiv url: http://arxiv.org/abs/2303.12267v2
- Date: Sat, 17 May 2025 08:05:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.084228
- Title: AUTO: Adaptive Outlier Optimization for Test-Time OOD Detection
- Title(参考訳): AUTO:テスト時間OOD検出のためのアダプティブ・アウトリーチ最適化
- Authors: Puning Yang, Jian Liang, Jie Cao, Ran He,
- Abstract要約: Out-of-Distribution (OOD) 検出は、任意のトレーニングインディストリビューション(ID)クラスに該当しないテストサンプルを検出することを目的としている。
データ安全性とプライバシにより、さまざまなシナリオに対して、事前にタスク固有の外れ値の収集が不可能になる。
テスト中にラベルのないデータストリームから実際のOODデータを利用することができる。
- 参考スコア(独自算出の注目度): 79.51071170042972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection aims to detect test samples that do not fall into any training in-distribution (ID) classes. Prior efforts focus on regularizing models with ID data only, largely underperforming counterparts that utilize auxiliary outliers. However, data safety and privacy make it infeasible to collect task-specific outliers in advance for different scenarios. Besides, using task-irrelevant outliers leads to inferior OOD detection performance. To address the above issue, we present a new setup called test-time OOD detection, which allows the deployed model to utilize real OOD data from the unlabeled data stream during testing. We propose Adaptive Outlier Optimization (AUTO) which allows for continuous adaptation of the OOD detector. Specifically, AUTO consists of three key components: 1) an in-out-aware filter to selectively annotate test samples with pseudo-ID and pseudo-OOD and ingeniously trigger the updating process while encountering each pseudo-OOD sample; 2) a dynamic-updated memory to overcome the catastrophic forgetting led by frequent parameter updates; 3) a prediction-aligning objective to calibrate the rough OOD objective during testing. Extensive experiments show that AUTO significantly improves OOD detection performance over state-of-the-art methods. Besides, evaluations on complicated scenarios (e.g. multi-OOD, time-series OOD) also conduct the superiority of AUTO.
- Abstract(参考訳): Out-of-Distribution (OOD) 検出は、任意のトレーニングインディストリビューション(ID)クラスに該当しないテストサンプルを検出することを目的としている。
以前の取り組みでは、IDデータのみを使用したモデルの正規化に重点を置いていた。
しかし、データ安全性とプライバシにより、さまざまなシナリオに対して、事前にタスク固有のアウトラヤを収集することは不可能である。
さらに、タスク非関連なアウトレイアを使用することで、OOD検出性能が低下する。
上記の問題に対処するため、テスト中に未ラベルのデータストリームから実際のOODデータを利用することができるテスト時OOD検出という新しい設定を提案する。
我々は,OOD検出器の連続的な適応を可能にする適応出力最適化(AUTO)を提案する。
具体的には、AUTOは3つのキーコンポーネントから構成される。
1 疑似ID及び疑似OODで検査サンプルを選択的に注釈付けし、擬似OODサンプルに遭遇しながら更新プロセスを巧みにトリガーするインアウト・アウェアフィルタ
2) 頻繁なパラメータ更新によって引き起こされる破滅的な忘れを克服する動的更新メモリ。
3) テスト中, 粗いOOD目標を校正するための予測調整目的。
大規模な実験により、AUTOは最先端手法よりもOOD検出性能を著しく向上することが示された。
さらに、複雑なシナリオ(例えば、マルチOD、時系列OOD)に対する評価も、AUTOの優位性を実現している。
関連論文リスト
- OODD: Test-time Out-of-Distribution Detection with Dynamic Dictionary [10.19006278808466]
ディープラーニングモデルでは、アウト・オブ・ディストリビューション(OOD)検出が依然として難しい。
我々は,OOD辞書を微調整なしで動的に保守・更新する新しいテスト時間OOD検出手法OODDを提案する。
我々は,検出性能を維持しながら3倍の高速化を実現する,KNNベースのOOD検出フレームワークの最適化版を提案する。
論文 参考訳(メタデータ) (2025-03-13T15:41:56Z) - Self-Calibrated Tuning of Vision-Language Models for Out-of-Distribution Detection [24.557227100200215]
オープンソースアプリケーションに信頼性の高い機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
近年のCLIPによるOOD検出の進歩は,IDデータから抽出したOOD特徴に即時調整を施すことによって有望な結果を示した。
提案手法は,SCT(Self-Calibrated Tuning)と呼ばれる新しいフレームワークで,与えられた数ショットのIDデータのみを用いて効果的なOOD検出を行う。
論文 参考訳(メタデータ) (2024-11-05T02:29:16Z) - Enhancing OOD Detection Using Latent Diffusion [5.093257685701887]
Out-of-Distribution (OOD) 検出アルゴリズムは、現実世界のデプロイにおいて未知のサンプルやオブジェクトを特定するために開発された。
潜在空間におけるOOD学習データを合成するoutlier Aware Learningフレームワークを提案する。
また,OODデータを用いたトレーニングにおいて,ID分類精度の低下を防止するための知識蒸留モジュールを開発した。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Can Pre-trained Networks Detect Familiar Out-of-Distribution Data? [37.36999826208225]
PT-OODが事前学習ネットワークのOOD検出性能に及ぼす影響について検討した。
特徴空間におけるPT-OODの低線形分離性はPT-OOD検出性能を著しく低下させることがわかった。
本稿では,大規模事前学習モデルに対する一意な解を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:00Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Towards Realistic Out-of-Distribution Detection: A Novel Evaluation
Framework for Improving Generalization in OOD Detection [14.541761912174799]
本稿では,OOD(Out-of-Distribution)検出のための新しい評価フレームワークを提案する。
より現実的な設定で機械学習モデルのパフォーマンスを評価することを目的としている。
論文 参考訳(メタデータ) (2022-11-20T07:30:15Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining [51.19164318924997]
インフォメーション・アウトリエ・マイニングによるアドリアトレーニングは、OOD検出の堅牢性を向上させる。
ATOMは,古典的,敵対的なOOD評価タスクの幅広いファミリーの下で,最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-26T20:58:05Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。