論文の概要: Statistical Testing for Efficient Out of Distribution Detection in Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2102.12967v1
- Date: Thu, 25 Feb 2021 16:14:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:59:19.402115
- Title: Statistical Testing for Efficient Out of Distribution Detection in Deep
Neural Networks
- Title(参考訳): 深層ニューラルネットワークにおける分布検出効率の統計的検証
- Authors: Matan Haroush, Tzivel Frostig, Ruth Heller and Daniel Soudry
- Abstract要約: 本稿では,Deep Neural Networks の Out Of Distribution (OOD) 検出問題を統計的仮説テスト問題として考察する。
このフレームワークに基づいて、低階統計に基づいた新しいOOD手順を提案します。
本手法は,ネットワークパラメータの再トレーニングを行わずに,oodベンチマークの精度が向上した。
- 参考スコア(独自算出の注目度): 26.0303701309125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commonly, Deep Neural Networks (DNNs) generalize well on samples drawn from a
distribution similar to that of the training set. However, DNNs' predictions
are brittle and unreliable when the test samples are drawn from a dissimilar
distribution. This presents a major concern for deployment in real-world
applications, where such behavior may come at a great cost -- as in the case of
autonomous vehicles or healthcare applications.
This paper frames the Out Of Distribution (OOD) detection problem in DNN as a
statistical hypothesis testing problem. Unlike previous OOD detection
heuristics, our framework is guaranteed to maintain the false positive rate
(detecting OOD as in-distribution) for test data. We build on this framework to
suggest a novel OOD procedure based on low-order statistics. Our method
achieves comparable or better than state-of-the-art results on well-accepted
OOD benchmarks without retraining the network parameters -- and at a fraction
of the computational cost.
- Abstract(参考訳): 一般的に、ディープニューラルネットワーク(DNN)は、トレーニングセットと同様の分布から引き出されたサンプルをうまく一般化する。
しかし、DNNの予測は、テストサンプルが異種分布から引き出されると不安定で信頼性に欠ける。
これは、自動運転車やヘルスケアアプリケーションの場合のように、そのような行動が大きなコストで発生する可能性がある現実世界のアプリケーションへの展開に大きな懸念を示します。
本稿では,DNNにおけるOut Of Distribution (OOD)検出問題について,統計的仮説テスト問題として検討する。
従来のOOD検出ヒューリスティックとは違って,我々のフレームワークは,テストデータに対する偽陽性率(OODを非分布として検出する)を維持することが保証されている。
このフレームワークに基づいて、低階統計に基づいた新しいOOD手順を提案します。
提案手法は,ネットワークパラメータを再トレーニングすることなく,かつ計算コストのごく一部で,oodベンチマークにおいて,最先端の結果と同等あるいは優れた結果が得られる。
関連論文リスト
- Detecting Out-of-Distribution Samples via Conditional Distribution
Entropy with Optimal Transport [20.421338676377587]
トレーニングサンプルとテストインプットの両方から幾何情報を含む経験的確率分布は,OOD検出に極めて有用である。
最適輸送の枠組みの中では,OODサンプルであるテスト入力の不確かさを定量化するため,エントロピー(enmphconditional distribution entropy)と呼ばれる新しいスコア関数を提案する。
論文 参考訳(メタデータ) (2024-01-22T07:07:32Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - iDECODe: In-distribution Equivariance for Conformal Out-of-distribution
Detection [24.518698391381204]
ディープニューラルネットワーク(DNN)のような機械学習手法は、しばしば信頼性の高い誤った予測を生成する。
そこで我々は,共形OOD検出に分配同値を用いたiDECODeを提案する。
画像と音声のデータセットを用いた実験により,iDECODeの有効性を実証し,その結果を得た。
論文 参考訳(メタデータ) (2022-01-07T05:21:40Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - An Algorithm for Out-Of-Distribution Attack to Neural Network Encoder [1.7305469511995404]
Out-Of-Distribution (OOD) サンプルはトレーニングセットの分布に従わないため、OOD サンプルの予測されたクラスラベルは意味のないものとなる。
本手法は理論的保証がなく,OODアタックアルゴリズムにより事実上破壊可能であることを示す。
また、Glow chance-based OOD detectionも破壊可能であることも示している。
論文 参考訳(メタデータ) (2020-09-17T02:10:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。