論文の概要: AdaSCALE: Adaptive Scaling for OOD Detection
- arxiv url: http://arxiv.org/abs/2503.08023v1
- Date: Tue, 11 Mar 2025 04:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:43:47.346877
- Title: AdaSCALE: Adaptive Scaling for OOD Detection
- Title(参考訳): AdaSCALE: OOD検出のための適応スケーリング
- Authors: Sudarshan Regmi,
- Abstract要約: オフ・オブ・ディストリビューション(OOD)検出法は、アクティベーション・シェーピングを利用して、イン・ディストリビューション(ID)とOOD入力の分離を改善する。
サンプルのOOD推定値に基づいてパーセンタイル閾値を動的に調整する適応スケーリング手法である textbfAdaSCALE を提案する。
提案手法は,最新のOOD検出性能を実現し,画像Net-1kベンチマークの平均FPR@95値において,OptFSを14.94倍,FPR@95値で21.67倍に向上させた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The ability of the deep learning model to recognize when a sample falls outside its learned distribution is critical for safe and reliable deployment. Recent state-of-the-art out-of-distribution (OOD) detection methods leverage activation shaping to improve the separation between in-distribution (ID) and OOD inputs. These approaches resort to sample-specific scaling but apply a static percentile threshold across all samples regardless of their nature, resulting in suboptimal ID-OOD separability. In this work, we propose \textbf{AdaSCALE}, an adaptive scaling procedure that dynamically adjusts the percentile threshold based on a sample's estimated OOD likelihood. This estimation leverages our key observation: OOD samples exhibit significantly more pronounced activation shifts at high-magnitude activations under minor perturbation compared to ID samples. AdaSCALE enables stronger scaling for likely ID samples and weaker scaling for likely OOD samples, yielding highly separable energy scores. Our approach achieves state-of-the-art OOD detection performance, outperforming the latest rival OptFS by 14.94 in near-OOD and 21.67 in far-OOD datasets in average FPR@95 metric on the ImageNet-1k benchmark across eight diverse architectures. The code is available at: https://github.com/sudarshanregmi/AdaSCALE/
- Abstract(参考訳): ディープラーニングモデルが、サンプルが学習ディストリビューションの外に落ちていることを認識できることは、安全で信頼性の高いデプロイメントに不可欠である。
近年のOOD検出法は, アクティベーション・シェーピングを利用して, イン・ディストリビューション(ID)とOOD入力の分離を改善する。
これらのアプローチは、サンプル固有のスケーリングに頼っているが、その性質に関わらず、全てのサンプルに対して静的パーセンタイル閾値を適用し、その結果、サブ最適ID-OODセパビリティが生じる。
本研究では,サンプルのOOD推定値に基づいてパーセンタイル閾値を動的に調整する適応スケーリング手法であるtextbf{AdaSCALE}を提案する。
この推定は、我々の重要な観測を生かしている: OODサンプルは、小さな摂動下での高緯度活性化において、IDサンプルに比べて顕著に顕著な活性化変化を示す。
AdaSCALEは、より強力なIDサンプルのスケーリングと、より弱いOODサンプルのスケーリングを可能にし、高度に分離可能なエネルギースコアを得る。
提案手法は最先端のOOD検出性能を実現し,8つのアーキテクチャにわたるImageNet-1kベンチマークの平均FPR@95測定値において,OptFSを14.94倍,遠距離OODデータセットでは21.67倍に向上した。
コードは、https://github.com/sudarshanregmi/AdaSCALE/で入手できる。
関連論文リスト
- Margin-bounded Confidence Scores for Out-of-Distribution Detection [2.373572816573706]
本稿では,非自明なOOD検出問題に対処するため,Margin bounded Confidence Scores (MaCS) と呼ばれる新しい手法を提案する。
MaCS は ID と OOD のスコアの差を拡大し、決定境界をよりコンパクトにする。
画像分類タスクのための様々なベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-22T05:40:25Z) - SeTAR: Out-of-Distribution Detection with Selective Low-Rank Approximation [5.590633742488972]
ニューラルネットワークの安全なデプロイには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
トレーニング不要なOOD検出手法であるSeTARを提案する。
SeTARは、単純なグリーディ探索アルゴリズムを用いて、モデルの重量行列のポストホックな修正によるOOD検出を強化する。
私たちの研究は、OOD検出のためのスケーラブルで効率的なソリューションを提供し、この分野で新しい最先端を設定します。
論文 参考訳(メタデータ) (2024-06-18T13:55:13Z) - Rethinking the Evaluation of Out-of-Distribution Detection: A Sorites Paradox [70.57120710151105]
既存のアウト・オブ・ディストリビューション(OOD)検出ベンチマークは、サンプルを新しいラベルでOODデータとして分類する。
いくつかの限界OODサンプルは、実際には分布内(ID)サンプルに密接なセマンティック内容を持ち、OODサンプルをソリテスパラドックス(英語版)と判定する。
この問題に対処するため,Incremental Shift OOD (IS-OOD) というベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-14T09:27:56Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Scaling for Training Time and Post-hoc Out-of-distribution Detection
Enhancement [41.650761556671775]
本稿では,最近の最先端のアウト・オブ・ディストリビューション(OOD)検出手法に関する知見と分析を行う。
我々は,活性化拡大がOOD検出に有害な影響を及ぼす一方で,活性化スケーリングが促進されることを実証した。
OpenOOD v1.5 ImageNet-1Kベンチマークで、AUROCスコアは、近OODでは+1.85%、遠OODデータセットでは+0.74%である。
論文 参考訳(メタデータ) (2023-09-30T02:10:54Z) - Out of Distribution Detection via Neural Network Anchoring [38.36467447555689]
分布外検出のためのキャリブレーション戦略としてヘテロセシダスティック温度スケーリングを利用する。
本研究では,各試料の適切な温度値を推定できるアンカー方式を提案する。
優れたOOD検出手法のいくつかとは対照的に、我々の手法は追加の外部データセットへの露出を必要としない。
論文 参考訳(メタデータ) (2022-07-08T21:01:09Z) - Exploring Covariate and Concept Shift for Detection and Calibration of
Out-of-Distribution Data [77.27338842609153]
キャラクタリゼーションにより、OODデータの検出と信頼性校正には、それぞれのシフトに対する感度が重要であることが明らかになった。
分布内データのみを用いて両シフトでのOOD検出を改善するために,幾何学的に着想を得た手法を提案する。
我々は,OOD検出とキャリブレーションの両面で,異なるタイプのシフトの下でうまく機能する手法を最初に提案する。
論文 参考訳(メタデータ) (2021-10-28T15:42:55Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - Probabilistic Trust Intervals for Out of Distribution Detection [8.35564578781252]
本稿では,従来のパラメータを変更することなく,事前学習ネットワークにおけるOOD検出を向上する手法を提案する。
提案手法は,各ネットワーク重みに対する確率的信頼区間を定義し,分布内データを用いて決定する。
我々は,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100,CIFAR-10-Cについて検討した。
論文 参考訳(メタデータ) (2021-02-02T06:23:04Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。