論文の概要: Probabilistic Trust Intervals for Out of Distribution Detection
- arxiv url: http://arxiv.org/abs/2102.01336v3
- Date: Mon, 23 Dec 2024 19:10:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:53:22.217554
- Title: Probabilistic Trust Intervals for Out of Distribution Detection
- Title(参考訳): 分布検出のための確率的信頼区間
- Authors: Gagandeep Singh, Ishan Mishra, Deepak Mishra,
- Abstract要約: 本稿では,従来のパラメータを変更することなく,事前学習ネットワークにおけるOOD検出を向上する手法を提案する。
提案手法は,各ネットワーク重みに対する確率的信頼区間を定義し,分布内データを用いて決定する。
我々は,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100,CIFAR-10-Cについて検討した。
- 参考スコア(独自算出の注目度): 8.35564578781252
- License:
- Abstract: The ability of a deep learning network to distinguish between in-distribution (ID) and out-of-distribution (OOD) inputs is crucial for ensuring the reliability and trustworthiness of AI systems. Existing OOD detection methods often involve complex architectural innovations, such as ensemble models, which, while enhancing detection accuracy, significantly increase model complexity and training time. Other methods utilize surrogate samples to simulate OOD inputs, but these may not generalize well across different types of OOD data. In this paper, we propose a straightforward yet novel technique to enhance OOD detection in pre-trained networks without altering its original parameters. Our approach defines probabilistic trust intervals for each network weight, determined using in-distribution data. During inference, additional weight values are sampled, and the resulting disagreements among outputs are utilized for OOD detection. We propose a metric to quantify this disagreement and validate its effectiveness with empirical evidence. Our method significantly outperforms various baseline methods across multiple OOD datasets without requiring actual or surrogate OOD samples. We evaluate our approach on MNIST, Fashion-MNIST, CIFAR-10, CIFAR-100 and CIFAR-10-C (a corruption-augmented version of CIFAR-10), across various neural network architectures (e.g., VGG-16, ResNet-20, DenseNet-100). On the MNIST-FashionMNIST setup, our method achieves a False Positive Rate (FPR) of 12.46\% at 95\% True Positive Rate (TPR), compared to 27.09\% achieved by the best baseline. On adversarial and corrupted datasets such as CIFAR-10-C, our proposed method easily differentiate between clean and noisy inputs. These results demonstrate the robustness of our approach in identifying corrupted and adversarial inputs, all without requiring OOD samples during training.
- Abstract(参考訳): ディープラーニングネットワークが、AIシステムの信頼性と信頼性を確保するために、インディストリビューション(ID)とアウト・オブ・ディストリビューション(OOD)のインプットを区別する能力は不可欠である。
既存のOOD検出手法は、しばしばアンサンブルモデルのような複雑なアーキテクチャ革新を伴い、検出精度を向上しながら、モデルの複雑さとトレーニング時間を著しく向上させる。
他の方法では、Surrogateサンプルを使用してOOD入力をシミュレートするが、これらはOODデータの種類によってはうまく一般化できない。
本稿では,従来のパラメータを変更することなく,事前学習ネットワークにおけるOOD検出を向上する手法を提案する。
提案手法は,各ネットワーク重みに対する確率的信頼区間を定義し,分布内データを用いて決定する。
推測中、追加の重み値がサンプリングされ、出力間の不一致がOOD検出に利用される。
本稿では,この不一致を定量化し,その有効性を実証的証拠で検証する指標を提案する。
提案手法は,複数のOODデータセットに対して,実際のOODサンプルやサロゲートを必要とせず,様々なベースライン法を著しく上回っている。
我々は、MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100、CIFAR-10-C(CIFAR-10の汚職拡大版)に対するアプローチを、ニューラルネットワークアーキテクチャ(例えば、VGG-16、ResNet-20、DenseNet-100)にわたって評価した。
MNIST-FashionMNISTのセットアップでは、最良のベースラインで達成された27.09倍の12.46倍の正の率(FPR)を95倍の正の率(TPR)で達成する。
CIFAR-10-Cのような敵対的・腐敗したデータセットについて,クリーン入力とノイズ入力を区別し易い手法を提案する。
これらの結果は,OODサンプルを必要とせず,破損した入力や逆入力を識別するアプローチの堅牢性を示すものである。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Kalman Bayesian Neural Networks for Closed-form Online Learning [5.220940151628734]
閉形式ベイズ推論によるBNN学習のための新しい手法を提案する。
出力の予測分布の計算と重み分布の更新をベイズフィルタおよび平滑化問題として扱う。
これにより、勾配降下のないシーケンシャル/オンライン方式でネットワークパラメータをトレーニングするためのクローズドフォーム表現が可能になる。
論文 参考訳(メタデータ) (2021-10-03T07:29:57Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Statistical Testing for Efficient Out of Distribution Detection in Deep
Neural Networks [26.0303701309125]
本稿では,Deep Neural Networks の Out Of Distribution (OOD) 検出問題を統計的仮説テスト問題として考察する。
このフレームワークに基づいて、低階統計に基づいた新しいOOD手順を提案します。
本手法は,ネットワークパラメータの再トレーニングを行わずに,oodベンチマークの精度が向上した。
論文 参考訳(メタデータ) (2021-02-25T16:14:47Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。