論文の概要: Mahalanobis++: Improving OOD Detection via Feature Normalization
- arxiv url: http://arxiv.org/abs/2505.18032v1
- Date: Fri, 23 May 2025 15:36:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.199657
- Title: Mahalanobis++: Improving OOD Detection via Feature Normalization
- Title(参考訳): Mahalanobis++: 特徴正規化によるOOD検出の改善
- Authors: Maximilian Mueller, Matthias Hein,
- Abstract要約: ell$-normalizationは従来のマハラノビス距離に基づくアプローチを大幅に改善することを示す。
また、$ell$-normalizationは通常の分散データの前提とよく一致していることを示す。
- 参考スコア(独自算出の注目度): 36.56346240815833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting out-of-distribution (OOD) examples is an important task for deploying reliable machine learning models in safety-critial applications. While post-hoc methods based on the Mahalanobis distance applied to pre-logit features are among the most effective for ImageNet-scale OOD detection, their performance varies significantly across models. We connect this inconsistency to strong variations in feature norms, indicating severe violations of the Gaussian assumption underlying the Mahalanobis distance estimation. We show that simple $\ell_2$-normalization of the features mitigates this problem effectively, aligning better with the premise of normally distributed data with shared covariance matrix. Extensive experiments on 44 models across diverse architectures and pretraining schemes show that $\ell_2$-normalization improves the conventional Mahalanobis distance-based approaches significantly and consistently, and outperforms other recently proposed OOD detection methods.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)の例を検出することは、安全クリティカルなアプリケーションに信頼性の高い機械学習モデルをデプロイするための重要なタスクである。
マハラノビス距離に基づくポストホック法は、画像ネットスケールのOOD検出において最も有効であるが、その性能はモデルによって大きく異なる。
この矛盾を特徴ノルムの強い変動に結び付け、マハラノビス距離推定の根底にあるガウスの仮定に深刻な違反を示す。
これらの特徴の$\ell_2$-正規化はこの問題を効果的に軽減し、共有共分散行列による通常分散データの前提と整合することを示す。
多様なアーキテクチャと事前学習スキームにわたる44モデルに対する大規模な実験により、$\ell_2$-normalizationは従来のマハラノビス距離に基づくアプローチを大幅に改善し、最近提案された他のOOD検出方法よりも優れていた。
関連論文リスト
- Enhancing Out-of-Distribution Detection with Extended Logit Normalization [8.243349010573242]
機械学習モデルの安全なデプロイには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
近年,OOD検出のための分類損失の改善と表現学習戦略が検討されている。
これらの方法は、しばしば特定のポストホック検出技術に合わせて調整され、一般化性を制限する。
論文 参考訳(メタデータ) (2025-04-15T17:51:35Z) - A Bayesian Nonparametric Perspective on Mahalanobis Distance for Out of Distribution Detection [12.436797965512326]
ベイズ非パラメトリックモデルと相対マハラノビス距離スコア(RMDS)の関係を示す。
我々はこれらのモデルをOpenOOD検出ベンチマークで評価する。
論文 参考訳(メタデータ) (2025-02-12T18:39:01Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Out-of-distribution Detection with Deep Nearest Neighbors [33.71627349163909]
アウト・オブ・ディストリビューション(OOD)検出は、オープンな世界で機械学習モデルをデプロイするための重要なタスクである。
本稿では,OOD検出における非パラメトリック近接距離の有効性について検討する。
いくつかのベンチマークで最寄りのOOD検出の有効性を実証し,優れた性能を示す。
論文 参考訳(メタデータ) (2022-04-13T16:45:21Z) - No True State-of-the-Art? OOD Detection Methods are Inconsistent across
Datasets [69.725266027309]
アウト・オブ・ディストリビューション検出は、信頼できるMLシステムの重要なコンポーネントである。
本研究では,これらの手法が16対の標準セット上でのOOD検出よりも本質的に優れていることを示す。
また、ある(ID, OOD)ペアにおいて他の(ID, OOD)ペアよりも優れる手法は、低データ方式ではそうしない可能性があることを示す。
論文 参考訳(メタデータ) (2021-09-12T16:35:00Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。