論文の概要: Post-hoc Calibration of Neural Networks by g-Layers
- arxiv url: http://arxiv.org/abs/2006.12807v2
- Date: Mon, 21 Feb 2022 12:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 21:31:41.126775
- Title: Post-hoc Calibration of Neural Networks by g-Layers
- Title(参考訳): g層によるニューラルネットワークのポストホック校正
- Authors: Amir Rahimi, Thomas Mensink, Kartik Gupta, Thalaiyasingam Ajanthan,
Cristian Sminchisescu, Richard Hartley
- Abstract要約: 近年、ニューラルネットワークの校正に関する研究が急増している。
負ログライクリーフ(NLL)の最小化は、グローバルな最適化が達成されれば、トレーニングセット上の校正ネットワークにつながることが知られている。
基本ネットワーク (f$) が NLL のグローバルな最適化に繋がらず,追加レイヤ (g$) を追加し,パラメータを$g$ 1 に最適化することで NLL を最小化することで,キャリブレーションネットワークが得られることを示す。
- 参考スコア(独自算出の注目度): 51.42640515410253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Calibration of neural networks is a critical aspect to consider when
incorporating machine learning models in real-world decision-making systems
where the confidence of decisions are equally important as the decisions
themselves. In recent years, there is a surge of research on neural network
calibration and the majority of the works can be categorized into post-hoc
calibration methods, defined as methods that learn an additional function to
calibrate an already trained base network. In this work, we intend to
understand the post-hoc calibration methods from a theoretical point of view.
Especially, it is known that minimizing Negative Log-Likelihood (NLL) will lead
to a calibrated network on the training set if the global optimum is attained
(Bishop, 1994). Nevertheless, it is not clear learning an additional function
in a post-hoc manner would lead to calibration in the theoretical sense. To
this end, we prove that even though the base network ($f$) does not lead to the
global optimum of NLL, by adding additional layers ($g$) and minimizing NLL by
optimizing the parameters of $g$ one can obtain a calibrated network $g \circ
f$. This not only provides a less stringent condition to obtain a calibrated
network but also provides a theoretical justification of post-hoc calibration
methods. Our experiments on various image classification benchmarks confirm the
theory.
- Abstract(参考訳): ニューラルネットワークの校正は、決定の信頼性が決定そのものと同じくらい重要である実世界の意思決定システムに機械学習モデルを導入する場合、考慮すべき重要な側面である。
近年、ニューラルネットワークの校正に関する研究が急増しており、研究の大部分は、既に訓練されたベースネットワークを校正するための追加機能を学ぶ方法として定義されるポストホック校正方法に分類することができる。
本研究は,ポストホックキャリブレーション法を理論的観点から理解することを目的とする。
特に,NLLの最小化は,グローバル最適化が達成されれば,トレーニングセット上の校正ネットワークにつながることが知られている(Bishop, 1994)。
それでも、ポストホックな方法で追加の関数を学ぶことが理論的な意味で校正につながることは明らかではない。
この目的のために、ベースネットワーク(f$)がNLLのグローバルな最適化に繋がらず、追加のレイヤ(g$)を追加し、パラメータを$g$ 1に最適化することでNLLを最小化することで、キャリブレーションされたネットワーク$g \circ f$が得られることを示した。
これは、校正されたネットワークを得るためのより厳密な条件を提供するだけでなく、ポストホックなキャリブレーション方法を理論的に正当化する。
各種画像分類ベンチマーク実験の結果,本理論が裏付けられた。
関連論文リスト
- Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - Neural Clamping: Joint Input Perturbation and Temperature Scaling for Neural Network Calibration [62.4971588282174]
我々はニューラルクランプ法と呼ばれる新しい後処理キャリブレーション法を提案する。
実験の結果,Neural Clampingは最先端の処理後のキャリブレーション法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-23T14:18:39Z) - Taking a Step Back with KCal: Multi-Class Kernel-Based Calibration for
Deep Neural Networks [40.282423098764404]
本稿では,KCalと呼ばれるKernelベースのキャリブレーション手法を提案する。
他の校正手順とは異なり、KCalはDNNのロジットやソフトマックス出力を直接操作しない。
事実上、KCalはニューラルネットワークの埋め込みの教師付き次元削減に相当する。
論文 参考訳(メタデータ) (2022-02-15T19:04:05Z) - Deep Calibration of Interest Rates Model [0.0]
ディープラーニングの普及にもかかわらず、CIRやガウス家のような古典的なレートモデルはまだ広く使われている。
本稿では,ニューラルネットワークを用いたG2++モデルの5つのパラメータの校正を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:08:45Z) - Meta-Calibration: Learning of Model Calibration Using Differentiable
Expected Calibration Error [46.12703434199988]
我々は、キャリブレーション品質を直接最適化できる、期待キャリブレーション誤差(DECE)のための新しい微分可能なサロゲートを導入する。
また、DECEを用いて検証セットの校正を最適化するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-17T15:47:50Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Intra Order-preserving Functions for Calibration of Multi-Class Neural
Networks [54.23874144090228]
一般的なアプローチは、元のネットワークの出力をキャリブレーションされた信頼スコアに変換する、ポストホックキャリブレーション関数を学ぶことである。
以前のポストホックキャリブレーション技術は単純なキャリブレーション機能でしか機能しない。
本稿では,順序保存関数のクラスを表すニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-15T12:57:21Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。