論文の概要: Adaptive Label Smoothing with Self-Knowledge in Natural Language
Generation
- arxiv url: http://arxiv.org/abs/2210.13459v1
- Date: Sat, 22 Oct 2022 11:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 12:52:56.482207
- Title: Adaptive Label Smoothing with Self-Knowledge in Natural Language
Generation
- Title(参考訳): 自然言語生成における自己認識による適応ラベル平滑化
- Authors: Dongkyu Lee, Ka Chun Cheung, Nevin L. Zhang
- Abstract要約: 平滑化パラメータに動的性質をもたらす正規化スキームを提案する。
トレーニングのモデルは、前方伝播中のハエの平滑化の程度を自己制御する。
- 参考スコア(独自算出の注目度): 16.878277421402945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Overconfidence has been shown to impair generalization and calibration of a
neural network. Previous studies remedy this issue by adding a regularization
term to a loss function, preventing a model from making a peaked distribution.
Label smoothing smoothes target labels with a pre-defined prior label
distribution; as a result, a model is learned to maximize the likelihood of
predicting the soft label. Nonetheless, the amount of smoothing is the same in
all samples and remains fixed in training. In other words, label smoothing does
not reflect the change in probability distribution mapped by a model over the
course of training. To address this issue, we propose a regularization scheme
that brings dynamic nature into the smoothing parameter by taking model
probability distribution into account, thereby varying the parameter per
instance. A model in training self-regulates the extent of smoothing on the fly
during forward propagation. Furthermore, inspired by recent work in bridging
label smoothing and knowledge distillation, our work utilizes self-knowledge as
a prior label distribution in softening target labels, and presents theoretical
support for the regularization effect by knowledge distillation and the dynamic
smoothing parameter. Our regularizer is validated comprehensively, and the
result illustrates marked improvements in model generalization and calibration,
enhancing robustness and trustworthiness of a model.
- Abstract(参考訳): 自信過剰は、ニューラルネットワークの一般化とキャリブレーションを損なうことが示されている。
前回の研究では、損失関数に正規化項を追加することでこの問題を解決し、モデルがピーク分布を作ることを防止した。
ラベルスムーシングは、予め定義されたラベル分布で対象ラベルを滑らかにし、その結果、ソフトラベルを予測する確率を最大化するモデルが学習される。
それでも、すべてのサンプルで平滑化量は同じであり、トレーニングで固定されている。
言い換えれば、ラベルの平滑化はトレーニングの過程でモデルによってマッピングされた確率分布の変化を反映しない。
この問題に対処するために,モデル確率分布を考慮に入れ,インスタンスごとのパラメータを変化させることで,スムースなパラメータに動的性質をもたらす正規化方式を提案する。
トレーニングのモデルは、前進伝播中のフライ上の平滑化の程度を自己制御する。
さらに,近年のブリッジングラベル平滑化と知識蒸留に触発され,対象ラベルの軟化における先行ラベル分布として自己知識を活用し,知識蒸留と動的平滑化パラメータによる正規化効果を理論的に支援した。
我々の正則化器は包括的に検証され、モデル一般化とキャリブレーションの顕著な改善、モデルの堅牢性と信頼性の向上が示されている。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Model Calibration in Dense Classification with Adaptive Label
Perturbation [44.62722402349157]
既存の密接な二分分類モデルは、過信される傾向がある。
本稿では,各トレーニング画像に対する独自のラベル摂動レベルを学習する適応ラベル摂動(ASLP)を提案する。
ASLPは、分布内および分布外の両方のデータに基づいて、密度の高い二分分類モデルの校正度を著しく改善することができる。
論文 参考訳(メタデータ) (2023-07-25T14:40:11Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Rethinking Precision of Pseudo Label: Test-Time Adaptation via
Complementary Learning [10.396596055773012]
本稿では,テスト時間適応性を高めるための新しい補完学習手法を提案する。
テスト時適応タスクでは、ソースドメインからの情報は通常利用できない。
我々は,相補ラベルのリスク関数がバニラ損失式と一致することを強調した。
論文 参考訳(メタデータ) (2023-01-15T03:36:33Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Instance-based Label Smoothing For Better Calibrated Classification
Networks [3.388509725285237]
ラベルの平滑化はディープニューラルネットワークで多クラス分類に広く利用されている。
ラベルのスムース化と自己蒸留の両方からインスピレーションを得ます。
本稿では2つの新しいインスタンスベースのラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:33:23Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Generalized Entropy Regularization or: There's Nothing Special about
Label Smoothing [83.78668073898001]
本稿では, ラベル平滑化を含むエントロピー正則化器群を紹介する。
モデル性能のばらつきはモデルのエントロピーによって大きく説明できる。
我々は,他のエントロピー正規化手法の使用を推奨する。
論文 参考訳(メタデータ) (2020-05-02T12:46:28Z) - Regularization via Structural Label Smoothing [22.74769739125912]
正規化は機械学習モデルの一般化性能を促進する効果的な方法である。
本稿では,ニューラルネットワークの過度な適合を防止するための出力分布正規化の一形態であるラベル平滑化に着目した。
このようなラベルの平滑化はトレーニングデータのベイズ誤り率に定量的なバイアスを与えることを示す。
論文 参考訳(メタデータ) (2020-01-07T05:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。