論文の概要: Out of Distribution Detection via Neural Network Anchoring
- arxiv url: http://arxiv.org/abs/2207.04125v1
- Date: Fri, 8 Jul 2022 21:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 06:28:31.746898
- Title: Out of Distribution Detection via Neural Network Anchoring
- Title(参考訳): ニューラルネットワークアンカーによる分布検出の欠如
- Authors: Rushil Anirudh, Jayaraman J. Thiagarajan
- Abstract要約: 分布外検出のためのキャリブレーション戦略としてヘテロセシダスティック温度スケーリングを利用する。
本研究では,各試料の適切な温度値を推定できるアンカー方式を提案する。
優れたOOD検出手法のいくつかとは対照的に、我々の手法は追加の外部データセットへの露出を必要としない。
- 参考スコア(独自算出の注目度): 38.36467447555689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our goal in this paper is to exploit heteroscedastic temperature scaling as a
calibration strategy for out of distribution (OOD) detection.
Heteroscedasticity here refers to the fact that the optimal temperature
parameter for each sample can be different, as opposed to conventional
approaches that use the same value for the entire distribution. To enable this,
we propose a new training strategy called anchoring that can estimate
appropriate temperature values for each sample, leading to state-of-the-art OOD
detection performance across several benchmarks. Using NTK theory, we show that
this temperature function estimate is closely linked to the epistemic
uncertainty of the classifier, which explains its behavior. In contrast to some
of the best-performing OOD detection approaches, our method does not require
exposure to additional outlier datasets, custom calibration objectives, or
model ensembling. Through empirical studies with different OOD detection
settings -- far OOD, near OOD, and semantically coherent OOD - we establish a
highly effective OOD detection approach. Code and models can be accessed here
-- https://github.com/rushilanirudh/AMP
- Abstract(参考訳): 本研究の目的は,分散分布(ood)検出のための校正戦略としてヘテロシデスティックな温度スケーリングを利用することである。
ここでのヘテロシデスティック性は、各サンプルの最適な温度パラメータが、分布全体に対して同じ値を使用する従来のアプローチとは対照的に異なるという事実を指す。
これを実現するために,サンプル毎に適切な温度値を推定し,複数のベンチマークで最先端のOOD検出性能を実現するアンカリングという新たなトレーニング手法を提案する。
ntk理論を用いて,この温度関数推定は,その挙動を説明する分類器の認識的不確かさと密接に関連していることを示す。
最善のood検出手法とは対照的に、この手法では、追加の外れ値データセット、カスタムキャリブレーション目的、モデルセンシングへの露出は不要である。
OOD 検出設定の異なる OOD 検出設定、OOD 近傍、意味的コヒーレント OOD の実証研究を通じて、我々は、高度に効果的な OOD 検出アプローチを確立する。
コードとモデルはここでアクセスできます -- https://github.com/rushilanirudh/AMP
関連論文リスト
- OAL: Enhancing OOD Detection Using Latent Diffusion [5.357756138014614]
Outlier Aware Learning (OAL)フレームワークは、潜伏空間で直接OODトレーニングデータを合成する。
In-Distribution (ID) と収集したOOD特徴の区別を増幅する相互情報に基づくコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - General-Purpose Multi-Modal OOD Detection Framework [5.287829685181842]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習(ML)システムの安全性と信頼性を保証するために重要なトレーニングデータとは異なるテストサンプルを特定する。
本稿では,2値分類器とコントラスト学習コンポーネントを組み合わせた,汎用的な弱教師付きOOD検出フレームワークWOODを提案する。
提案したWOODモデルを複数の実世界のデータセット上で評価し、実験結果により、WOODモデルがマルチモーダルOOD検出の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-24T18:50:49Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Unsupervised Evaluation of Out-of-distribution Detection: A Data-centric
Perspective [55.45202687256175]
アウト・オブ・ディストリビューション(OOD)検出法は、個々のテストサンプルがイン・ディストリビューション(IND)なのかOODなのかという、試験対象の真実を持っていると仮定する。
本稿では,OOD検出における教師なし評価問題を初めて紹介する。
我々は,OOD検出性能の教師なし指標としてGscoreを計算する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T13:34:35Z) - On the Usefulness of Deep Ensemble Diversity for Out-of-Distribution
Detection [7.221206118679026]
ディープラーニングの安全性クリティカルな応用において、OOD(Out-of-Distribution)データを検出する能力が重要である。
この文献の既存の直観は、ディープ・アンサンブルの予測の多様性は分布シフトを示しているということである。
ImageNet-scale OOD 検出では,この直観が有効でないことを示す。
論文 参考訳(メタデータ) (2022-07-15T15:02:38Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Exploring Covariate and Concept Shift for Detection and Calibration of
Out-of-Distribution Data [77.27338842609153]
キャラクタリゼーションにより、OODデータの検出と信頼性校正には、それぞれのシフトに対する感度が重要であることが明らかになった。
分布内データのみを用いて両シフトでのOOD検出を改善するために,幾何学的に着想を得た手法を提案する。
我々は,OOD検出とキャリブレーションの両面で,異なるタイプのシフトの下でうまく機能する手法を最初に提案する。
論文 参考訳(メタデータ) (2021-10-28T15:42:55Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。