論文の概要: Expectation consistency for calibration of neural networks
- arxiv url: http://arxiv.org/abs/2303.02644v1
- Date: Sun, 5 Mar 2023 11:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:34:02.805737
- Title: Expectation consistency for calibration of neural networks
- Title(参考訳): ニューラルネットワークのキャリブレーションにおける期待一貫性
- Authors: Lucas Clart\'e, Bruno Loureiro, Florent Krzakala, Lenka Zdeborov\'a
- Abstract要約: 期待整合性(EC)という新しいキャリブレーション手法を導入する。
ECは、平均検証の信頼性が正しいラベルの平均比率と一致することを強制する。
我々は,ECが温度スケーリングを著しく上回る事例について論じる。
- 参考スコア(独自算出の注目度): 24.073221004661427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their incredible performance, it is well reported that deep neural
networks tend to be overoptimistic about their prediction confidence. Finding
effective and efficient calibration methods for neural networks is therefore an
important endeavour towards better uncertainty quantification in deep learning.
In this manuscript, we introduce a novel calibration technique named
expectation consistency (EC), consisting of a post-training rescaling of the
last layer weights by enforcing that the average validation confidence
coincides with the average proportion of correct labels. First, we show that
the EC method achieves similar calibration performance to temperature scaling
(TS) across different neural network architectures and data sets, all while
requiring similar validation samples and computational resources. However, we
argue that EC provides a principled method grounded on a Bayesian optimality
principle known as the Nishimori identity. Next, we provide an asymptotic
characterization of both TS and EC in a synthetic setting and show that their
performance crucially depends on the target function. In particular, we discuss
examples where EC significantly outperforms TS.
- Abstract(参考訳): その驚くべき性能にもかかわらず、ディープニューラルネットワークは予測の信頼性に対して過剰に最適化される傾向があると報告されている。
したがって、ニューラルネットワークの効率的かつ効率的なキャリブレーション方法を見つけることは、ディープラーニングにおける不確実性定量化を改善するための重要な取り組みである。
本稿では,最終層重みのトレーニング後の再スケーリングを行い,平均検証信頼度と正しいラベルの平均比率とを一致させることにより,予測一貫性(ec)と呼ばれる新しい校正手法を提案する。
まず,ec法が異なるニューラルネットワークアーキテクチャとデータセットにまたがる温度スケーリング(ts)と同様のキャリブレーション性能を実現し,同様の検証サンプルと計算リソースを必要とすることを示した。
しかしながら、ec は西森同一性として知られるベイズ最適性原理に基づく原理的手法であると主張する。
次に,合成環境におけるTSとECの漸近的評価を行い,その性能が目的関数に大きく依存していることを示す。
特に、ECがTSを著しく上回る事例について論じる。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Training-Free Neural Active Learning with Initialization-Robustness
Guarantees [27.38525683635627]
本稿では,ニューラルアクティブ学習におけるガウス過程 (EV-GP) の基準値との相違点について紹介する。
我々のEV-GP基準は、トレーニング不要、すなわち、データ選択中にNNのトレーニングを一切必要としない。
論文 参考訳(メタデータ) (2023-06-07T14:28:42Z) - A New PHO-rmula for Improved Performance of Semi-Structured Networks [0.0]
本研究では,SSNにおけるモデルコンポーネントのコントリビューションを適切に識別する手法が,最適ネットワーク推定に繋がることを示す。
モデルコンポーネントの識別性を保証し,予測品質を向上する非侵襲的ポストホック化(PHO)を提案する。
我々の理論的な知見は、数値実験、ベンチマーク比較、およびCOVID-19感染症に対する現実の応用によって裏付けられている。
論文 参考訳(メタデータ) (2023-06-01T10:23:28Z) - On the optimization and pruning for Bayesian deep learning [1.0152838128195467]
重み空間上でニューラルネットワークを学習するための適応型変分ベイズアルゴリズムを提案する。
EM-MCMCアルゴリズムにより,ワンショットで最適化とモデルプルーニングを行うことができる。
我々の密度モデルは最先端の性能に到達でき、スパースモデルは以前提案したプルーニング方式と比較して非常によく機能する。
論文 参考訳(メタデータ) (2022-10-24T05:18:08Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Robust and integrative Bayesian neural networks for likelihood-free
parameter inference [0.0]
要約統計を学習するための最先端のニューラルネットワークベースの手法は、シミュレーションベースの確率自由パラメータ推論に有望な結果をもたらした。
本研究では,ベイズニューラルネットワークを用いて要約統計学を学習し,カテゴリー分布を用いて後部密度を直接推定する頑健な統合手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T13:45:23Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。