論文の概要: Meta-Calibration Regularized Neural Networks
- arxiv url: http://arxiv.org/abs/2303.15057v1
- Date: Mon, 27 Mar 2023 10:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 16:10:56.812299
- Title: Meta-Calibration Regularized Neural Networks
- Title(参考訳): メタキャリブレーション規則化ニューラルネットワーク
- Authors: Cheng Wang and Jacek Golebiowski
- Abstract要約: 近年,メタ校正(Meta-Calibration, MC)により, メタラーニングによる校正モデル学習の有効性が示された。
我々は,(1) ガンマネットワーク(ガンマネット),(2) ガンマネットのスムーズな最適化を目的としたスムーズなキャリブレーション誤差(SECE)の2つの主要コンポーネントでMCを拡張した。
実験の結果, (a) 連続空間におけるサンプルワイドガンマの学習が効果的に校正できること, (b) SECE がスムーズにガンマネットを最適化すること, (c) ビンニングスキームに対するロバスト性を向上すること, (c) が示された。
- 参考スコア(独自算出の注目度): 11.15836796438471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Miscalibration-the mismatch between predicted probability and the true
correctness likelihood-has been frequently identified in modern deep neural
networks. Recent work in the field aims to address this problem by training
calibrated models directly by optimizing a proxy of the calibration error
alongside the conventional objective. Recently, Meta-Calibration (MC) showed
the effectiveness of using meta-learning for learning better calibrated models.
In this work, we extend MC with two main components: (1) gamma network
(gamma-net), a meta network to learn a sample-wise gamma at a continuous space
for focal loss for optimizing backbone network; (2) smooth expected calibration
error (SECE), a Gaussian-kernel based unbiased and differentiable ECE which
aims to smoothly optimizing gamma-net. The proposed method regularizes neural
network towards better calibration meanwhile retain predictive performance. Our
experiments show that (a) learning sample-wise gamma at continuous space can
effectively perform calibration; (b) SECE smoothly optimise gamma-net towards
better robustness to binning schemes; (c) the combination of gamma-net and SECE
achieve the best calibration performance across various calibration metrics and
retain very competitive predictive performance as compared to multiple recently
proposed methods on three datasets.
- Abstract(参考訳): 予測確率と真正性確率のミスマッチは、現代のディープニューラルネットワークでよく確認されている。
最近の研究は、従来の目的と並んでキャリブレーション誤差のプロキシを最適化することで、キャリブレーションモデルを直接訓練することでこの問題に対処することを目的としている。
近年,メタ校正(Meta-Calibration, MC)により, メタラーニングによる校正モデル学習の有効性が示された。
本研究では,(1)ガンマネットワーク(gamma-net),(2)ガンマネットワークの最適化のための焦点損失のための連続空間におけるサンプル回りガンマを学習するメタネットワーク,(2)ガンマネットを円滑に最適化することを目的とした,ガウス型カーネル型不偏微分型eceであるsmoous expected calibration error(sece)という2つの主成分をmcに拡張する。
提案手法は,予測性能を維持しつつ,より優れたキャリブレーションに向けてニューラルネットワークを定式化する。
私たちの実験は
(a)連続空間におけるサンプルワイドガンマの学習は、効果的に校正を行うことができる。
b) SECE は ガンマネットをスムーズに最適化し, 双極子スキームの堅牢性を向上させる。
(c)ガンマネットとSECEの組み合わせは,様々なキャリブレーション指標で最高のキャリブレーション性能を達成し,最近提案された3つのデータセットに対する複数の手法と比較して,非常に競争力のある予測性能を維持する。
関連論文リスト
- Feature Clipping for Uncertainty Calibration [24.465567005078135]
現代のディープニューラルネットワーク(DNN)は、しばしば過剰な自信に悩まされ、誤校正につながる。
この問題に対処するために,特徴クリッピング(FC)と呼ばれるポストホックキャリブレーション手法を提案する。
FCは特定の閾値に特徴値をクリップし、高い校正誤差サンプルのエントロピーを効果的に増加させる。
論文 参考訳(メタデータ) (2024-10-16T06:44:35Z) - Calibrating Bayesian Learning via Regularization, Confidence Minimization, and Selective Inference [37.82259435084825]
適切に校正されたAIモデルは、その精度を分布内入力(ID)に正しく報告し、また、分布外入力(OOD)の検出を可能にする必要がある。
本稿では、キャリブレーション正則化を統合した変分推論(VI)に基づくベイズ学習の拡張を提案する。
論文 参考訳(メタデータ) (2024-04-17T13:08:26Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Meta-Calibration: Learning of Model Calibration Using Differentiable
Expected Calibration Error [46.12703434199988]
我々は、キャリブレーション品質を直接最適化できる、期待キャリブレーション誤差(DECE)のための新しい微分可能なサロゲートを導入する。
また、DECEを用いて検証セットの校正を最適化するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-17T15:47:50Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Combining Ensembles and Data Augmentation can Harm your Calibration [33.94335246681807]
アンサンブルとデータ拡張を組み合わせることで、モデルのキャリブレーションを損なう可能性がある。
我々は,アンサンブルやデータ拡張のみを個別に使用することよりも,精度とキャリブレーションの利得を高い精度で達成し,両世界のベストを達成できる簡単な補正を提案する。
論文 参考訳(メタデータ) (2020-10-19T21:25:22Z) - Multi-Class Uncertainty Calibration via Mutual Information
Maximization-based Binning [8.780958735684958]
ポストホック多クラスキャリブレーションは、ディープニューラルネットワーク予測の信頼度推定を提供する一般的なアプローチである。
近年の研究では、広く使われているスケーリング手法がキャリブレーション誤差を過小評価していることが示されている。
類似クラス間で1つのキャリブレータを共有する共有クラスワイド(sCW)キャリブレーション戦略を提案する。
論文 参考訳(メタデータ) (2020-06-23T15:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。