論文の概要: FEVER-OOD: Free Energy Vulnerability Elimination for Robust Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2412.01596v1
- Date: Mon, 02 Dec 2024 15:15:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:45:00.314134
- Title: FEVER-OOD: Free Energy Vulnerability Elimination for Robust Out-of-Distribution Detection
- Title(参考訳): FEVER-OOD:ロバストアウトオブディストリビューション検出のための自由エネルギー脆弱性除去
- Authors: Brian K. S. Isaac-Medina, Mauricio Che, Yona F. A. Gaus, Samet Akcay, Toby P. Breckon,
- Abstract要約: 自由エネルギースコア定式化(OOD)における未探索および固有の脆弱性について検討した。
最終線形層の最小特異値を最大化するために, 新規な正則化を導入し, サンプル間自由エネルギー分離を向上する。
実験の結果, FEVER-OOD法は画像ネット100におけるOOD検出の状態を達成し, 平均OOD偽陽性率(95%真正率)は35.83%であった。
- 参考スコア(独自算出の注目度): 12.139516247199179
- License:
- Abstract: Modern machine learning models, that excel on computer vision tasks such as classification and object detection, are often overconfident in their predictions for Out-of-Distribution (OOD) examples, resulting in unpredictable behaviour for open-set environments. Recent works have demonstrated that the free energy score is an effective measure of uncertainty for OOD detection given its close relationship to the data distribution. However, despite free energy-based methods representing a significant empirical advance in OOD detection, our theoretical analysis reveals previously unexplored and inherent vulnerabilities within the free energy score formulation such that in-distribution and OOD instances can have distinct feature representations yet identical free energy scores. This phenomenon occurs when the vector direction representing the feature space difference between the in-distribution and OOD sample lies within the null space of the last layer of a neural-based classifier. To mitigate these issues, we explore lower-dimensional feature spaces to reduce the null space footprint and introduce novel regularisation to maximize the least singular value of the final linear layer, hence enhancing inter-sample free energy separation. We refer to these techniques as Free Energy Vulnerability Elimination for Robust Out-of-Distribution Detection (FEVER-OOD). Our experiments show that FEVER-OOD techniques achieve state of the art OOD detection in Imagenet-100, with average OOD false positive rate (at 95% true positive rate) of 35.83% when used with the baseline Dream-OOD model.
- Abstract(参考訳): 分類やオブジェクト検出などのコンピュータビジョンタスクに長けている現代の機械学習モデルは、アウト・オブ・ディストリビューション(OOD)の例に対する予測に過信されることが多く、オープンセット環境では予測不可能な振る舞いをもたらす。
近年の研究では、データ分布と密接な関係にあるため、自由エネルギースコアがOOD検出の有効不確実性を示す尺度であることが示されている。
しかし,OOD検出の顕著な経験的進歩を示す自由エネルギーベースの手法にもかかわらず,我々の理論的解析により,未発見かつ固有の自由エネルギースコアの定式化における脆弱性が明らかとなった。
この現象は、分布内とOODサンプル間の特徴空間差を表すベクトル方向が、ニューラルベース分類器の最後の層のヌル空間内にあるときに起こる。
これらの問題を緩和するため、零空間フットプリントを減らすために低次元特徴空間を探索し、最終線形層の最小特異値を最大化するために新しい正規化を導入し、その結果、サンプル間自由エネルギー分離が向上する。
本稿では,これらの手法を,ロバストアウトオブディストリビューション検出(FEVER-OOD)のための自由エネルギー脆弱性除去と呼ぶ。
実験により, FEVER-OOD法は, Imagenet-100における最先端のOOD検出を実現し, ベースラインDream-OODモデルを用いた場合の平均OOD偽陽性率(95%正の正)は35.83%であった。
関連論文リスト
- The Best of Both Worlds: On the Dilemma of Out-of-distribution Detection [75.65876949930258]
アウト・オブ・ディストリビューション(OOD)検出はモデル信頼性に不可欠である。
我々は,OODの一般化能力を秘かに犠牲にすることで,最先端手法のOOD検出性能が向上することを示す。
論文 参考訳(メタデータ) (2024-10-12T07:02:04Z) - Can OOD Object Detectors Learn from Foundation Models? [56.03404530594071]
アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、オープンセットのOODデータがないため、難しい課題である。
テキストから画像への生成モデルの最近の進歩に触発されて,大規模オープンセットデータを用いて訓練された生成モデルがOODサンプルを合成する可能性について検討した。
SyncOODは,大規模基盤モデルの能力を活用するシンプルなデータキュレーション手法である。
論文 参考訳(メタデータ) (2024-09-08T17:28:22Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Unsupervised Evaluation of Out-of-distribution Detection: A Data-centric
Perspective [55.45202687256175]
アウト・オブ・ディストリビューション(OOD)検出法は、個々のテストサンプルがイン・ディストリビューション(IND)なのかOODなのかという、試験対象の真実を持っていると仮定する。
本稿では,OOD検出における教師なし評価問題を初めて紹介する。
我々は,OOD検出性能の教師なし指標としてGscoreを計算する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T13:34:35Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - How to Exploit Hyperspherical Embeddings for Out-of-Distribution
Detection? [22.519572587827213]
CIDERは、OOD検出に超球面埋め込みを利用する表現学習フレームワークである。
CIDERは優れたパフォーマンスを確立し、FPR95では19.36%で最新のライバルを上回った。
論文 参考訳(メタデータ) (2022-03-08T23:44:01Z) - ReAct: Out-of-distribution Detection With Rectified Activations [20.792140933660075]
オフ・オブ・ディストリビューション (OOD) 検出は, 実用的重要性から近年注目されている。
主な課題の1つは、モデルがしばしばOODデータに対して高い信頼性の予測を生成することである。
我々は,OODデータに対するモデル過信を低減するためのシンプルで効果的な手法であるReActを提案する。
論文 参考訳(メタデータ) (2021-11-24T21:02:07Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。