論文の概要: Bag of Tricks for In-Distribution Calibration of Pretrained Transformers
- arxiv url: http://arxiv.org/abs/2302.06690v1
- Date: Mon, 13 Feb 2023 21:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 17:16:33.739952
- Title: Bag of Tricks for In-Distribution Calibration of Pretrained Transformers
- Title(参考訳): 変圧器の非分布校正用トリックの袋
- Authors: Jaeyoung Kim, Dongbin Na, Sungchul Choi, Sungbin Lim
- Abstract要約: プレトレーニング言語モデル(PLM)の信頼性校正に関する実証的研究について述べる。
トレーニングセットに過度に適合したアンサンブルモデルは,サブパーキャリブレーション性能を示す。
校正手法を組み合わせた校正PLM(CALL)を提案する。
- 参考スコア(独自算出の注目度): 8.876196316390493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While pre-trained language models (PLMs) have become a de-facto standard
promoting the accuracy of text classification tasks, recent studies find that
PLMs often predict over-confidently. Although various calibration methods have
been proposed, such as ensemble learning and data augmentation, most of the
methods have been verified in computer vision benchmarks rather than in
PLM-based text classification tasks. In this paper, we present an empirical
study on confidence calibration for PLMs, addressing three categories,
including confidence penalty losses, data augmentations, and ensemble methods.
We find that the ensemble model overfitted to the training set shows sub-par
calibration performance and also observe that PLMs trained with confidence
penalty loss have a trade-off between calibration and accuracy. Building on
these observations, we propose the Calibrated PLM (CALL), a combination of
calibration techniques. The CALL complements the drawbacks that may occur when
utilizing a calibration method individually and boosts both classification and
calibration accuracy. Design choices in CALL's training procedures are
extensively studied, and we provide a detailed analysis of how calibration
techniques affect the calibration performance of PLMs.
- Abstract(参考訳): 事前訓練された言語モデル(PLM)は、テキスト分類タスクの正確性を促進するデファクトスタンダードとなっているが、最近の研究では、PLMが過度に自信過剰に予測することが多い。
アンサンブル学習やデータ拡張など、様々な校正手法が提案されているが、ほとんどの手法はPLMベースのテキスト分類タスクではなく、コンピュータビジョンベンチマークで検証されている。
本稿では, PLMの信頼性校正に関する実証的研究を行い, 信頼報酬損失, データ強化, アンサンブル手法の3つのカテゴリに対処する。
トレーニングセットに過度に適合したアンサンブルモデルが下位のキャリブレーション性能を示し,信頼度ペナルティ損失を訓練したplmがキャリブレーションと精度の間にトレードオフがあることを観察した。
これらの観測に基づいてキャリブレーション手法を組み合わせたキャリブレーションPLM(CALL)を提案する。
CALLは、キャリブレーション法を個別に利用する際に生じる欠点を補完し、分類とキャリブレーション精度を向上する。
キャリブレーション手法がPLMのキャリブレーション性能に与える影響について,CALLのトレーニング手順における設計選択について詳細に検討した。
関連論文リスト
- Optimizing Estimators of Squared Calibration Errors in Classification [2.3020018305241337]
本稿では,2乗キャリブレーション誤差の推定器の比較と最適化を可能にする平均二乗誤差に基づくリスクを提案する。
キャリブレーション誤差を推定する際のトレーニングバリデーションテストパイプラインを提案する。
論文 参考訳(メタデータ) (2024-10-09T15:58:06Z) - C-TPT: Calibrated Test-Time Prompt Tuning for Vision-Language Models via Text Feature Dispersion [54.81141583427542]
深層学習において,ラベル付きデータを必要としない微調整手法としてテスト時間適応が注目されている。
本稿では,CLIPの固有特性を利用したテスト時プロンプトチューニング時の校正について検討する。
そこで本研究では,C-TPT(Calibrated Test-time Prompt Tuning)という,キャリブレーションの強化によるテスト時間中のプロンプトの最適化手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T04:08:29Z) - On the Calibration of Large Language Models and Alignment [63.605099174744865]
信頼性キャリブレーションは、ディープモデルの信頼性を高める重要なツールである。
構築プロセス全体を通して、アライメント言語モデルの校正を体系的に検討する。
我々の研究は、人気のあるLCMが十分に校正されているか、トレーニングプロセスがモデルの校正にどのように影響するかに光を当てています。
論文 参考訳(メタデータ) (2023-11-22T08:57:55Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Scaling of Class-wise Training Losses for Post-hoc Calibration [6.0632746602205865]
そこで本研究では,クラスレベルの学習損失を同期させるキャリブレーション手法を提案する。
複数のクラスワイドスケーリング因子を用いて、クラスワイドトレーニング損失の分散を軽減するために、新しいトレーニング損失を設計する。
種々のポストホックキャリブレーション手法を用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-06-19T14:59:37Z) - A Close Look into the Calibration of Pre-trained Language Models [56.998539510508515]
事前訓練された言語モデル(PLM)は、予測の不確かさを確実に見積もることに失敗する可能性がある。
トレーニングにおけるPLMの校正性能の動的変化について検討する。
最近提案された2つの学習可能な手法を拡張して、モデルを直接収集し、合理的な信頼度を推定する。
論文 参考訳(メタデータ) (2022-10-31T21:31:07Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - On Calibration of Scene-Text Recognition Models [16.181357648680365]
我々は最近のSTR法を分析し、それらが常に過信であることを示す。
注意に基づくデコーダでは,個々の文字予測のキャリブレーションが単語レベルのキャリブレーション誤差を増加させることを示す。
論文 参考訳(メタデータ) (2020-12-23T13:25:25Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。