論文の概要: Meta-Calibration: Meta-Learning of Model Calibration Using
Differentiable Expected Calibration Error
- arxiv url: http://arxiv.org/abs/2106.09613v1
- Date: Thu, 17 Jun 2021 15:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:06:30.761792
- Title: Meta-Calibration: Meta-Learning of Model Calibration Using
Differentiable Expected Calibration Error
- Title(参考訳): メタキャリブレーション:微分可能なキャリブレーション誤差を用いたモデルキャリブレーションのメタラーニング
- Authors: Ondrej Bohdal, Yongxin Yang, Timothy Hospedales
- Abstract要約: 本稿では,キャリブレーション誤差の予測値に微分可能な指標を導入し,メタ学習の目的として活用する手法を提案する。
モデルキャリブレーションを直接最適化するためにメタラーニングを用いる新たな方向を示す手法を提案する。
- 参考スコア(独自算出の注目度): 40.44580012160914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Calibration of neural networks is a topical problem that is becoming
increasingly important for real-world use of neural networks. The problem is
especially noticeable when using modern neural networks, for which there is
significant difference between the model confidence and the confidence it
should have. Various strategies have been successfully proposed, yet there is
more space for improvements. We propose a novel approach that introduces a
differentiable metric for expected calibration error and successfully uses it
as an objective for meta-learning, achieving competitive results with
state-of-the-art approaches. Our approach presents a new direction of using
meta-learning to directly optimize model calibration, which we believe will
inspire further work in this promising and new direction.
- Abstract(参考訳): ニューラルネットワークのキャリブレーションは、現実のニューラルネットワークの利用においてますます重要になっているトピック問題である。
問題は、モデル信頼度とそれが持つべき信頼との間に重大な違いがある現代のニューラルネットワークを使用する場合、特に顕著である。
様々な戦略が提案されているが、改善の余地はもっとある。
本稿では,メタラーニングの目的として,予測キャリブレーション誤差に対する微分可能なメトリックを導入し,最先端のアプローチによる競争結果の達成に成功させる手法を提案する。
このアプローチは、モデルキャリブレーションを直接最適化するためにメタラーニングを使用する新たな方向を示します。
関連論文リスト
- Feature Clipping for Uncertainty Calibration [24.465567005078135]
現代のディープニューラルネットワーク(DNN)は、しばしば過剰な自信に悩まされ、誤校正につながる。
この問題に対処するために,特徴クリッピング(FC)と呼ばれるポストホックキャリブレーション手法を提案する。
FCは特定の閾値に特徴値をクリップし、高い校正誤差サンプルのエントロピーを効果的に増加させる。
論文 参考訳(メタデータ) (2024-10-16T06:44:35Z) - Towards Unbiased Calibration using Meta-Regularization [6.440598446802981]
2つのコンポーネントを持つメタ正則化により、より良い校正モデルを学ぶことを提案する。
ニューラルネットワークを3つのコンピュータビジョンデータセット上で改善し、偏りのないキャリブレーションに正規化するための提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2023-03-27T10:00:50Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Revisiting Calibration for Question Answering [16.54743762235555]
従来のキャリブレーション評価はモデル信頼性の有用性を反映していないと論じる。
モデルが誤った予測に低信頼を割り当て、正しい予測に高信頼を割り当てているかどうかをよりよく把握する新しい校正基準であるMacroCEを提案する。
論文 参考訳(メタデータ) (2022-05-25T05:49:56Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Post-hoc Calibration of Neural Networks by g-Layers [51.42640515410253]
近年、ニューラルネットワークの校正に関する研究が急増している。
負ログライクリーフ(NLL)の最小化は、グローバルな最適化が達成されれば、トレーニングセット上の校正ネットワークにつながることが知られている。
基本ネットワーク (f$) が NLL のグローバルな最適化に繋がらず,追加レイヤ (g$) を追加し,パラメータを$g$ 1 に最適化することで NLL を最小化することで,キャリブレーションネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T07:55:10Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。