論文の概要: Towards Trustworthy Predictions from Deep Neural Networks with Fast
Adversarial Calibration
- arxiv url: http://arxiv.org/abs/2012.10923v2
- Date: Tue, 2 Mar 2021 19:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:50:47.681462
- Title: Towards Trustworthy Predictions from Deep Neural Networks with Fast
Adversarial Calibration
- Title(参考訳): 高速逆校正によるディープニューラルネットワークの信頼性予測に向けて
- Authors: Christian Tomani, Florian Buettner
- Abstract要約: 本稿では,ドメインシフト後に得られたサンプルに対して,信頼度の高い信頼度を得るための効率的かつ汎用的なモデリング手法を提案する。
本稿では,エントロピー増大損失項と逆キャリブレーション損失項を組み合わせた新しいトレーニング戦略を導入し,この結果が適切に調整され,技術的に信頼できる予測となることを示す。
- 参考スコア(独自算出の注目度): 2.8935588665357077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To facilitate a wide-spread acceptance of AI systems guiding decision making
in real-world applications, trustworthiness of deployed models is key. That is,
it is crucial for predictive models to be uncertainty-aware and yield
well-calibrated (and thus trustworthy) predictions for both in-domain samples
as well as under domain shift. Recent efforts to account for predictive
uncertainty include post-processing steps for trained neural networks, Bayesian
neural networks as well as alternative non-Bayesian approaches such as ensemble
approaches and evidential deep learning. Here, we propose an efficient yet
general modelling approach for obtaining well-calibrated, trustworthy
probabilities for samples obtained after a domain shift. We introduce a new
training strategy combining an entropy-encouraging loss term with an
adversarial calibration loss term and demonstrate that this results in
well-calibrated and technically trustworthy predictions for a wide range of
domain drifts. We comprehensively evaluate previously proposed approaches on
different data modalities, a large range of data sets including sequence data,
network architectures and perturbation strategies. We observe that our
modelling approach substantially outperforms existing state-of-the-art
approaches, yielding well-calibrated predictions under domain drift.
- Abstract(参考訳): 現実世界のアプリケーションにおける意思決定を導くAIシステムの広範な受容を促進するために、デプロイされたモデルの信頼性が重要です。
つまり、予測モデルが不確実性を認識し、ドメイン内サンプルとドメイン内シフトの両方に対して適切に調整された(従って信頼できる)予測をもたらすことが重要である。
予測の不確実性を説明する最近の取り組みとしては、トレーニングされたニューラルネットワークの処理ステップ、ベイズニューラルネットワーク、アンサンブルアプローチや実証的ディープラーニングのような非ベイズ的アプローチなどがある。
本稿では,ドメインシフト後に得られたサンプルに対して,信頼度の高い信頼度を得るための効率的かつ汎用的なモデリング手法を提案する。
本稿では,エントロピー増大損失項と逆キャリブレーション損失項を組み合わせた新たなトレーニング戦略を導入し,幅広い領域ドリフトに対する精度の高い技術的信頼性の高い予測が可能であることを示す。
従来提案されてきた様々なデータモダリティ,シーケンスデータ,ネットワークアーキテクチャ,摂動戦略など,幅広いデータセットに対するアプローチを包括的に評価した。
モデリング手法は既存の最先端手法よりも大幅に優れており,ドメインドリフト下での精度の高い予測が得られている。
関連論文リスト
- Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Confidence estimation of classification based on the distribution of the
neural network output layer [4.529188601556233]
現実の世界における予測モデルの適用を防ぐための最も一般的な問題の1つは一般化の欠如である。
ニューラルネットワーク分類モデルにより生成された特定の予測の不確かさを推定する新しい手法を提案する。
提案手法は,この予測に対応するロジット値の分布に基づいて,特定の予測の信頼性を推定する。
論文 参考訳(メタデータ) (2022-10-14T12:32:50Z) - Deep-Ensemble-Based Uncertainty Quantification in Spatiotemporal Graph
Neural Networks for Traffic Forecasting [2.088376060651494]
本稿では,短期交通予測のための最先端手法である拡散畳み込みリカレントニューラルネットワーク(DCRNN)に注目した。
我々はDCRNNの不確実性を定量化するスケーラブルなディープアンサンブル手法を開発した。
我々の汎用的かつスケーラブルなアプローチは、現在最先端のベイズ的手法や、多くの一般的な頻繁な手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-04T16:10:55Z) - A Variational Bayesian Approach to Learning Latent Variables for
Acoustic Knowledge Transfer [55.20627066525205]
本稿では,ディープニューラルネットワーク(DNN)モデルにおける潜伏変数の分布を学習するための変分ベイズ(VB)アプローチを提案する。
我々の提案するVBアプローチは,ターゲットデバイスにおいて良好な改善が得られ,しかも,13の最先端知識伝達アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2021-10-16T15:54:01Z) - PDC-Net+: Enhanced Probabilistic Dense Correspondence Network [161.76275845530964]
高度確率密度対応ネットワーク(PDC-Net+)は、精度の高い高密度対応を推定できる。
我々は、堅牢で一般化可能な不確実性予測に適したアーキテクチャと強化されたトレーニング戦略を開発する。
提案手法は,複数の挑戦的幾何マッチングと光学的フローデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-28T17:56:41Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。