論文の概要: Improving Uncertainty Quantification of Deep Classifiers via
Neighborhood Conformal Prediction: Novel Algorithm and Theoretical Analysis
- arxiv url: http://arxiv.org/abs/2303.10694v1
- Date: Sun, 19 Mar 2023 15:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 17:45:19.615714
- Title: Improving Uncertainty Quantification of Deep Classifiers via
Neighborhood Conformal Prediction: Novel Algorithm and Theoretical Analysis
- Title(参考訳): 近傍共形予測による深層分類器の不確実性定量化:新しいアルゴリズムと理論的解析
- Authors: Subhankar Ghosh, Taha Belkhouja, Yan Yan, Janardhan Rao Doppa
- Abstract要約: コンフォーマル予測(CP)は、ディープモデルの不確実性定量化のための原則的枠組みである。
本稿では,不確実性定量化の効率を向上させるため,NCP(Neighborhood Conformal Prediction)と呼ばれる新しいアルゴリズムを提案する。
NCPは従来のCP法よりも予測セットサイズが大幅に小さくなることを示す。
- 参考スコア(独自算出の注目度): 30.0231328500976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safe deployment of deep neural networks in high-stake real-world applications
requires theoretically sound uncertainty quantification. Conformal prediction
(CP) is a principled framework for uncertainty quantification of deep models in
the form of prediction set for classification tasks with a user-specified
coverage (i.e., true class label is contained with high probability). This
paper proposes a novel algorithm referred to as Neighborhood Conformal
Prediction (NCP) to improve the efficiency of uncertainty quantification from
CP for deep classifiers (i.e., reduce prediction set size). The key idea behind
NCP is to use the learned representation of the neural network to identify k
nearest-neighbors calibration examples for a given testing input and assign
them importance weights proportional to their distance to create adaptive
prediction sets. We theoretically show that if the learned data representation
of the neural network satisfies some mild conditions, NCP will produce smaller
prediction sets than traditional CP algorithms. Our comprehensive experiments
on CIFAR-10, CIFAR-100, and ImageNet datasets using diverse deep neural
networks strongly demonstrate that NCP leads to significant reduction in
prediction set size over prior CP methods.
- Abstract(参考訳): 高度な実世界のアプリケーションにディープニューラルネットワークを安全に配置するには理論的には不確実性定量化が必要である。
コンフォーマル予測(CP)は、ユーザ指定のカバレッジを持つ分類タスク(真のクラスラベルは高い確率で含まれる)の予測セットの形式で、ディープモデルの不確実性定量化のための原則化されたフレームワークである。
本稿では,深部分類器における不確実性定量化の効率を改善するため,NCP(Neighborhood Conformal Prediction)と呼ばれる新しいアルゴリズムを提案する。
ncpの背後にある重要なアイデアは、ニューラルネットワークの学習された表現を使用して、与えられたテスト入力に対するkの最寄りのキャリブレーション例を特定し、それらの距離に比例する重要度重みを割り当てて適応予測セットを作成することである。
理論的には、ニューラルネットワークの学習データ表現がいくつかの穏やかな条件を満たすと、NPPは従来のCPアルゴリズムよりも小さな予測セットを生成する。
多様な深層ニューラルネットワークを用いたCIFAR-10, CIFAR-100, ImageNetデータセットに関する包括的実験により, NCPが従来のCP法よりも予測セットサイズを大幅に小さくすることを示した。
関連論文リスト
- On Temperature Scaling and Conformal Prediction of Deep Classifiers [9.975341265604577]
この目的のための2つの一般的なアプローチは、(1)最大値が正当性確率をより正確に推定するように分類器のソフトマックス値を変更すること、(2)整形予測(CP):真のラベルを含む候補ラベルの予測セットをユーザ特定確率で生成することである。
実際には、どちらの種類の表示も望ましいが、今のところ両者の相互作用は研究されていない。
論文 参考訳(メタデータ) (2024-02-08T16:45:12Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Probabilistically robust conformal prediction [9.401004747930974]
コンフォーマル予測(CP)は、ディープニューラルネットワークを含む機械学習分類器の不確実性を定量化するフレームワークである。
CPに関する既存の作業のほとんど全てがクリーンなテストデータを前提としており、CPアルゴリズムの堅牢性についてはあまり知られていない。
本稿では,ほとんどの摂動に対して頑健性を保証する確率論的頑健な共形予測(PRCP)の問題について検討する。
論文 参考訳(メタデータ) (2023-07-31T01:32:06Z) - Density Regression and Uncertainty Quantification with Bayesian Deep
Noise Neural Networks [4.376565880192482]
ディープニューラルネットワーク(DNN)モデルは、幅広い教師付き学習アプリケーションにおいて最先端の予測精度を達成した。
DNN予測の不確実性を正確に定量化することは、依然として難しい課題である。
本稿では,ベイジアンディープノイズニューラルネットワーク (B-DeepNoise) を提案する。ベイジアンDNNは,ランダムノイズ変数をすべての隠蔽層に拡張することにより,標準ベイジアンDNNを一般化する。
予測精度,不確実性定量化精度,不確実性定量化効率の点で優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-12T02:47:29Z) - Robust Learning of Parsimonious Deep Neural Networks [0.0]
本稿では,ニューラルネットワークにおける無関係構造を識別・排除できる同時学習および刈り取りアルゴリズムを提案する。
最適選択に欠かせないパラメータに対して,新しい超優先度分布を導出する。
我々は,提案アルゴリズムをMNISTデータセット上で評価し,完全連結型および畳み込み型LeNetアーキテクチャを用いた。
論文 参考訳(メタデータ) (2022-05-10T03:38:55Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - A Simple Approach to Improve Single-Model Deep Uncertainty via
Distance-Awareness [33.09831377640498]
本研究では,1つの決定論的表現に基づく1つのネットワークの不確実性向上手法について検討する。
本稿では,現代のDNNにおける距離認識能力を向上させる簡易な手法として,スペクトル正規化ニューラルガウス過程(SNGP)を提案する。
ビジョンと言語理解のベンチマークスイートでは、SNGPは予測、キャリブレーション、ドメイン外検出において、他の単一モデルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-05-01T05:46:13Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。