論文の概要: Out-of-Distribution Detection & Applications With Ablated Learned
Temperature Energy
- arxiv url: http://arxiv.org/abs/2401.12129v1
- Date: Mon, 22 Jan 2024 17:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 13:14:00.680017
- Title: Out-of-Distribution Detection & Applications With Ablated Learned
Temperature Energy
- Title(参考訳): アブレーション学習温度エネルギーを用いた分布外検出と応用
- Authors: Will LeVine, Benjamin Pikus, Jacob Phillips, Berk Norman, Fernando
Amat Gil, Sean Hendryx
- Abstract要約: Ablated Learned Temperature Energy(略してAbeT)を紹介する。
アベトは偽陽性率を95%ドル、真陽性率(FPR@95)を35.39%で下げた。
さらに、我々のモデルがIn-Distribution (ID) と Out-of-Distribution (OOD) を区別する方法に関する経験的洞察も提供する。
- 参考スコア(独自算出の注目度): 40.02298833349518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep neural networks become adopted in high-stakes domains, it is crucial
to be able to identify when inference inputs are Out-of-Distribution (OOD) so
that users can be alerted of likely drops in performance and calibration
despite high confidence. Among many others, existing methods use the following
two scores to do so without training on any apriori OOD examples: a learned
temperature and an energy score. In this paper we introduce Ablated Learned
Temperature Energy (or "AbeT" for short), a method which combines these prior
methods in novel ways with effective modifications. Due to these contributions,
AbeT lowers the False Positive Rate at $95\%$ True Positive Rate (FPR@95) by
$35.39\%$ in classification (averaged across all ID and OOD datasets measured)
compared to state of the art without training networks in multiple stages or
requiring hyperparameters or test-time backward passes. We additionally provide
empirical insights as to how our model learns to distinguish between
In-Distribution (ID) and OOD samples while only being explicitly trained on ID
samples via exposure to misclassified ID examples at training time. Lastly, we
show the efficacy of our method in identifying predicted bounding boxes and
pixels corresponding to OOD objects in object detection and semantic
segmentation, respectively - with an AUROC increase of $5.15\%$ in object
detection and both a decrease in FPR@95 of $41.48\%$ and an increase in AUPRC
of $34.20\%$ on average in semantic segmentation compared to previous state of
the art.
- Abstract(参考訳): ディープニューラルネットワークがハイテイクドメインに採用されるにつれて、推論入力がアウト・オブ・ディストリビューション(OOD)であるかどうかを識別し、高い信頼性にもかかわらず、パフォーマンスとキャリブレーションの低下を警告できることが不可欠である。
中でも既存の方法では、学習した温度とエネルギーのスコアの順に、予備OODの例をトレーニングすることなく、以下の2つのスコアを使用する。
本稿では,これらの手法を新しい方法と効果的な修正を組み合わせる手法であるアブレーション学習温度エネルギー(abet)について紹介する。
これらの貢献により、アベットは偽陽性率を995\%$true positive rate (fpr@95)で35.39\%$に下げ(測定されたすべてのidとoodデータセットの平均値)、複数の段階のトレーニングネットワークやハイパーパラメータやテストタイムの後方パスを必要とすることなく、アートの状態と比較する。
さらに、トレーニング時に誤分類IDのサンプルに曝露することで、IDサンプルに対して明示的にトレーニングされる一方で、ID(In-Distribution)とOOD(OOD)のサンプルを区別する方法についての経験的洞察を提供する。
最後に,オブジェクト検出およびセマンティックセグメンテーションにおけるOODオブジェクトに対応する予測境界ボックスと画素の同定において,AUROCが5.15 %,FPR@95 が41.48 %,AUPRCが34.20 %,それぞれ従来の技術と比較して平均34.20 %の値を示した。
関連論文リスト
- Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Scaling for Training Time and Post-hoc Out-of-distribution Detection
Enhancement [41.650761556671775]
本稿では,最近の最先端のアウト・オブ・ディストリビューション(OOD)検出手法に関する知見と分析を行う。
我々は,活性化拡大がOOD検出に有害な影響を及ぼす一方で,活性化スケーリングが促進されることを実証した。
OpenOOD v1.5 ImageNet-1Kベンチマークで、AUROCスコアは、近OODでは+1.85%、遠OODデータセットでは+0.74%である。
論文 参考訳(メタデータ) (2023-09-30T02:10:54Z) - HAct: Out-of-Distribution Detection with Neural Net Activation
Histograms [7.795929277007233]
本稿では,OOD検出のための新しい記述子HActを提案する。すなわち,入力データの影響下でのニューラルネットワーク層の出力値の確率分布(ヒストグラムで近似)について述べる。
複数の画像分類ベンチマークにおいて,HActはOOD検出における最先端技術よりもはるかに精度が高いことを示す。
論文 参考訳(メタデータ) (2023-09-09T16:22:18Z) - Diffusion Denoised Smoothing for Certified and Adversarial Robust
Out-Of-Distribution Detection [6.247268652296234]
本稿では,OOD検出のロバスト性を,入力周辺の$ell$-norm内で証明するための新しい手法を提案する。
我々は,OOD検体に対する敵攻撃を検出するための現在の手法を改良するとともに,非分布検体に対する高いレベルの認証及び敵ロバスト性を提供する。
論文 参考訳(メタデータ) (2023-03-27T07:52:58Z) - Partial and Asymmetric Contrastive Learning for Out-of-Distribution
Detection in Long-Tailed Recognition [80.07843757970923]
既存のOOD検出手法は,トレーニングセットが長距離分布している場合,大幅な性能劣化に悩まされていることを示す。
本稿では,部分的および非対称的な教師付きコントラスト学習(PASCL)を提案する。
我々の手法は従来の最先端の手法を1.29%$, $1.45%$, $0.69%$異常検出偽陽性率(FPR)と$3.24%$, 4,.06%$, 7,89%$in-distributionで上回ります。
論文 参考訳(メタデータ) (2022-07-04T01:53:07Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。