論文の概要: Calibrate and Prune: Improving Reliability of Lottery Tickets Through
Prediction Calibration
- arxiv url: http://arxiv.org/abs/2002.03875v3
- Date: Wed, 30 Sep 2020 05:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:01:35.516363
- Title: Calibrate and Prune: Improving Reliability of Lottery Tickets Through
Prediction Calibration
- Title(参考訳): キャリブレートとプーン:予測キャリブレーションによるロッテティケットの信頼性向上
- Authors: Bindya Venkatesh, Jayaraman J. Thiagarajan, Kowshik Thopalli and
Prasanna Sattigeri
- Abstract要約: 未確認の信頼を持つ監視されたモデルは、誤った予測をしたとしても過信される傾向がある。
パラメータの過剰なネットワークにおける明確な信頼度校正が、その結果の宝くじの品質に与える影響について検討する。
我々の実証研究は、キャリブレーション機構を含むと、より効果的な宝くじチケットにつながることを明らかにしている。
- 参考スコア(独自算出の注目度): 40.203492372949576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The hypothesis that sub-network initializations (lottery) exist within the
initializations of over-parameterized networks, which when trained in isolation
produce highly generalizable models, has led to crucial insights into network
initialization and has enabled efficient inferencing. Supervised models with
uncalibrated confidences tend to be overconfident even when making wrong
prediction. In this paper, for the first time, we study how explicit confidence
calibration in the over-parameterized network impacts the quality of the
resulting lottery tickets. More specifically, we incorporate a suite of
calibration strategies, ranging from mixup regularization, variance-weighted
confidence calibration to the newly proposed likelihood-based calibration and
normalized bin assignment strategies. Furthermore, we explore different
combinations of architectures and datasets, and make a number of key findings
about the role of confidence calibration. Our empirical studies reveal that
including calibration mechanisms consistently lead to more effective lottery
tickets, in terms of accuracy as well as empirical calibration metrics, even
when retrained using data with challenging distribution shifts with respect to
the source dataset.
- Abstract(参考訳): サブネットワーク初期化(lottery)が過パラメータネットワークの初期化の中に存在するという仮説は、孤立的に訓練された時に非常に一般化可能なモデルが生成され、ネットワーク初期化に関する重要な洞察をもたらし、効率的な参照を可能にした。
未確認の信頼を持つ監視されたモデルは、誤った予測をしたとしても過信される傾向がある。
本稿では,本論文で初めて,過小評価ネットワークにおける信頼度校正が抽選チケットの品質に与える影響について検討する。
具体的には、混合正則化、分散重み付き信頼度校正から、新しく提案された可能性に基づく校正と正規化ビン割り当て戦略まで、一連の校正戦略を取り入れる。
さらに,アーキテクチャとデータセットの異なる組み合わせを検討し,信頼度校正の役割に関する多くの重要な発見を行う。
我々の経験的研究は、キャリブレーション機構を組み込むことで、ソースデータセットに対して挑戦的な分散シフトを伴うデータを用いて再トレーニングした場合でも、精度や経験的キャリブレーション指標の観点からも、より効果的な宝くじチケットを確実に得ることを示した。
関連論文リスト
- Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
大規模実験により, 提案手法は, 最先端の深層クラスタリング手法を10倍に越えるだけでなく, クラスタリング精度も大幅に向上した。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Domain-adaptive and Subgroup-specific Cascaded Temperature Regression
for Out-of-distribution Calibration [16.930766717110053]
本稿では, メタセットをベースとした新しい温度回帰法を提案し, ポストホックキャリブレーション法を提案する。
予測されたカテゴリと信頼度に基づいて,各メタセットをサブグループに分割し,多様な不確実性を捉える。
回帰ネットワークは、カテゴリ特化および信頼レベル特化スケーリングを導出し、メタセット間のキャリブレーションを達成するように訓練される。
論文 参考訳(メタデータ) (2024-02-14T14:35:57Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Two Sides of Miscalibration: Identifying Over and Under-Confidence
Prediction for Network Calibration [1.192436948211501]
安全クリティカルなタスクにおける信頼性予測には、ディープニューラルネットワークの信頼性校正が不可欠である。
ミススキャリブレーションは、過信と/または過信をモデル化する。
校正点とクラス別校正点を同定するために,新しい校正点である校正点を導入する。
クラスワイドの誤校正スコアをプロキシとして使用して,過度かつ過度に対処可能な校正手法を設計する。
論文 参考訳(メタデータ) (2023-08-06T17:59:14Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - Better Uncertainty Calibration via Proper Scores for Classification and
Beyond [15.981380319863527]
各校正誤差を適切なスコアに関連付ける適切な校正誤差の枠組みを導入する。
この関係は、モデルのキャリブレーションの改善を確実に定量化するために利用することができる。
論文 参考訳(メタデータ) (2022-03-15T12:46:08Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。