論文の概要: Training Uncertainty-Aware Classifiers with Conformalized Deep Learning
- arxiv url: http://arxiv.org/abs/2205.05878v1
- Date: Thu, 12 May 2022 05:08:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 12:26:12.980653
- Title: Training Uncertainty-Aware Classifiers with Conformalized Deep Learning
- Title(参考訳): 等角化深層学習を用いた不確かさ認識分類器の訓練
- Authors: Bat-Sheva Einbinder, Yaniv Romano, Matteo Sesia, Yanfei Zhou
- Abstract要約: ディープニューラルネットワークは、データ内の隠れパターンを検出し、それらを活用して予測する強力なツールであるが、不確実性を理解するように設計されていない。
我々は予測力を犠牲にすることなく、より信頼性の高い不確実性推定を導出できる新しいトレーニングアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 7.837881800517111
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks are powerful tools to detect hidden patterns in data and
leverage them to make predictions, but they are not designed to understand
uncertainty and estimate reliable probabilities. In particular, they tend to be
overconfident. We address this problem by developing a novel training algorithm
that can lead to more dependable uncertainty estimates, without sacrificing
predictive power. The idea is to mitigate overconfidence by minimizing a loss
function, inspired by advances in conformal inference, that quantifies model
uncertainty by carefully leveraging hold-out data. Experiments with synthetic
and real data demonstrate this method leads to smaller conformal prediction
sets with higher conditional coverage, after exact calibration with hold-out
data, compared to state-of-the-art alternatives.
- Abstract(参考訳): ディープニューラルネットワークは、データの隠れたパターンを検出して予測を行う強力なツールだが、不確実性を理解し、信頼できる確率を推定するように設計されていない。
特に、自信過剰な傾向にある。
我々は,予測力を犠牲にすることなく,より信頼性の高い不確実性推定を可能にする新しい学習アルゴリズムを開発することでこの問題に対処した。
共形推論の進歩に触発された損失関数を最小化し、ホールドアウトデータを慎重に活用することでモデルの不確かさを定量化する。
合成データと実データを用いた実験では、最先端の代替案と比較して、ホールドアウトデータによる正確なキャリブレーション後、条件付きカバレッジの高いコンフォメーション予測セットがより小さいことが示されている。
関連論文リスト
- Data Uncertainty without Prediction Models [0.8223798883838329]
予測モデルを明示的に使用せずに、距離重み付きクラス不純物という不確実性推定手法を提案する。
距離重み付きクラス不純物は予測モデルによらず効果的に機能することを確認した。
論文 参考訳(メタデータ) (2022-04-25T13:26:06Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - Probabilistic Deep Learning to Quantify Uncertainty in Air Quality
Forecasting [5.007231239800297]
この研究は、空気質予測の現実的な設定における不確実性定量化の最先端技術を適用した。
本稿では,経験的性能,信頼度推定の信頼性,実用性に基づいて,トレーニング確率モデルを記述し,予測の不確実性を評価する。
本実験は,データ駆動空気質予測の不確かさの定量化において,提案モデルが従来よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-12-05T17:01:18Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Learning Uncertainty with Artificial Neural Networks for Improved
Remaining Time Prediction of Business Processes [0.15229257192293202]
本論文では,これらの手法を予測過程のモニタリングに応用する。
より正確な予測と迅速な作業に貢献できることが分かりました。
これは多くの興味深い応用をもたらし、より小さなデータセットを持つ予測システムを早期に導入し、人間とのより良い協力を促進する。
論文 参考訳(メタデータ) (2021-05-12T10:18:57Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Learning from Similarity-Confidence Data [94.94650350944377]
類似度信頼性(Sconf)データから学習する新しい弱監督学習問題について検討する。
本研究では,Sconfデータのみから計算可能な分類リスクの非バイアス推定器を提案し,推定誤差境界が最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-02-13T07:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。