論文の概要: Gradient Short-Circuit: Efficient Out-of-Distribution Detection via Feature Intervention
- arxiv url: http://arxiv.org/abs/2507.01417v1
- Date: Wed, 02 Jul 2025 07:18:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.078954
- Title: Gradient Short-Circuit: Efficient Out-of-Distribution Detection via Feature Intervention
- Title(参考訳): グラディエントショートサーキット:特徴干渉による効率の良いアウト・オブ・ディストリビューション検出
- Authors: Jiawei Gu, Ziyue Qiao, Zechao Li,
- Abstract要約: Out-of-Distribution (OOD)検出は、オープンワールド環境でディープモデルを安全にデプロイするために重要である。
本稿では,これらの特徴座標をショートサーキットでショートサーキットし,スプリアス勾配を利用する推論段階手法を提案する。
標準OODベンチマークの実験では、我々のアプローチは大幅に改善されている。
- 参考スコア(独自算出の注目度): 19.580332929984028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-Distribution (OOD) detection is critical for safely deploying deep models in open-world environments, where inputs may lie outside the training distribution. During inference on a model trained exclusively with In-Distribution (ID) data, we observe a salient gradient phenomenon: around an ID sample, the local gradient directions for "enhancing" that sample's predicted class remain relatively consistent, whereas OOD samples--unseen in training--exhibit disorganized or conflicting gradient directions in the same neighborhood. Motivated by this observation, we propose an inference-stage technique to short-circuit those feature coordinates that spurious gradients exploit to inflate OOD confidence, while leaving ID classification largely intact. To circumvent the expense of recomputing the logits after this gradient short-circuit, we further introduce a local first-order approximation that accurately captures the post-modification outputs without a second forward pass. Experiments on standard OOD benchmarks show our approach yields substantial improvements. Moreover, the method is lightweight and requires minimal changes to the standard inference pipeline, offering a practical path toward robust OOD detection in real-world applications.
- Abstract(参考訳): Out-of-Distribution (OOD) 検出は、トレーニングディストリビューションの外に入力があるオープンワールド環境において、ディープモデルを安全にデプロイするために重要である。
In-Distriion (ID) データを専門にトレーニングしたモデルでは,IDサンプルを中心に,サンプルの予測クラスを「拡張」するための局所勾配方向が比較的一貫したままであるのに対して,OODサンプルは,同じ近傍の分散あるいは矛盾する勾配方向を非抑制的に観察する。
本研究の目的は,これらの特徴座標をショートサーキットでショートサーキットすることで,OODの信頼度を高めつつ,ID分類をほとんど無傷にしておくことにある。
この勾配短絡後のロジット再計算のコストを回避するため、第2のフォワードパスを使わずに修正後の出力を正確にキャプチャする局所的な一階近似を導入する。
標準OODベンチマークの実験では、我々のアプローチは大幅に改善されている。
さらに、この手法は軽量であり、標準推論パイプラインの変更を最小限にし、現実世界のアプリケーションで堅牢なOOD検出への実践的なパスを提供する。
関連論文リスト
- Leveraging Perturbation Robustness to Enhance Out-of-Distribution Detection [15.184096796229115]
本稿では, インディストリビューション(IND)インプットよりも, 摂動下でのOODインプットの予測信頼度が高いという知見に基づいて, ポストホック法であるPRO(Perturbation-Rectified OOD Detection)を提案する。
CIFAR-10モデルでは、POPは、最先端の手法と比較して、FPR@95において10%以上の削減を実現し、近似OOD入力を効果的に検出する。
論文 参考訳(メタデータ) (2025-03-24T15:32:33Z) - Model Reprogramming Outperforms Fine-tuning on Out-of-distribution Data in Text-Image Encoders [56.47577824219207]
本稿では,侵入的微調整技術に関連する隠れたコストを明らかにする。
ファインチューニングのための新しいモデル再プログラミング手法を導入し、それをリプログラマと呼ぶ。
我々の経験的証拠は、Re Programmerは侵入力が少なく、より優れた下流モデルが得られることを示している。
論文 参考訳(メタデータ) (2024-03-16T04:19:48Z) - GROOD: Gradient-Aware Out-of-Distribution Detection [11.862922321532817]
現実世界のアプリケーションにおけるディープラーニングモデルの信頼性を確保するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
In-distriion (ID) トレーニングデータから直接 OOD プロトタイプを抽出し,クラスプロトタイプを演算する GRADient-Aware Out-Of-Distribution Detection (GROOD) を提案する。
人工OODプロトタイプに関する最寄りのクラス-プロトタイプ損失関数の勾配を解析することにより,本手法は分布内とOOD試料の明確な分離を実現する。
論文 参考訳(メタデータ) (2023-12-22T04:28:43Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Detecting Out-of-distribution Examples via Class-conditional Impressions
Reappearing [30.938412222724608]
Out-of-Distribution(OOD)検出は、標準のディープニューラルネットワークを拡張して、元のトレーニングデータと異常な入力を区別することを目的としている。
プライバシーとセキュリティのため、補助的なデータは現実のシナリオでは実用的ではない傾向にある。
我々は,C2IR(Class-Conditional Impressions Reappearing)と呼ばれる,自然データに対する訓練を伴わないデータフリー手法を提案する。
論文 参考訳(メタデータ) (2023-03-17T02:55:08Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - On the Importance of Gradients for Detecting Distributional Shifts in
the Wild [15.548068221414384]
勾配空間から抽出した情報を利用してOOD入力を簡易かつ効果的に検出するGradNormを提案する。
GradNormは優れた性能を示し、FPR95の平均値は以前のベストメソッドに比べて最大10.89%削減された。
論文 参考訳(メタデータ) (2021-10-01T05:19:32Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。