論文の概要: NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models
- arxiv url: http://arxiv.org/abs/2110.02054v1
- Date: Sun, 29 Aug 2021 06:58:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 21:09:27.718128
- Title: NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models
- Title(参考訳): NoiER: より信頼性の高い微調整タスクモデルをトレーニングするためのアプローチ
- Authors: Myeongjun Jang and Thomas Lukasiewicz
- Abstract要約: 補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
- 参考スコア(独自算出の注目度): 54.184609286094044
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The recent development in pretrained language models trained in a
self-supervised fashion, such as BERT, is driving rapid progress in the field
of NLP. However, their brilliant performance is based on leveraging syntactic
artifacts of the training data rather than fully understanding the intrinsic
meaning of language. The excessive exploitation of spurious artifacts causes a
problematic issue: The distribution collapse problem, which is the phenomenon
that the model fine-tuned on downstream tasks is unable to distinguish
out-of-distribution (OOD) sentences while producing a high confidence score. In
this paper, we argue that distribution collapse is a prevalent issue in
pretrained language models and propose noise entropy regularisation (NoiER) as
an efficient learning paradigm that solves the problem without auxiliary models
and additional~data. The proposed approach improved traditional OOD detection
evaluation metrics by 55% on average compared to the original fine-tuned
models.
- Abstract(参考訳): BERTのような自己指導型言語モデルの最近の発展は、NLPの分野で急速に進歩している。
しかし、その素晴らしいパフォーマンスは、言語の本質的な意味を完全に理解するよりも、トレーニングデータの構文的アーティファクトを活用することに基づいている。
分散崩壊問題(英: distribution collapse problem)とは、下流のタスクで微調整されたモデルでは、高い信頼度を生み出す一方で、アウト・オブ・ディストリビューション(ood)文を区別できない現象である。
本稿では,事前学習された言語モデルにおいて,分散崩壊が主要な問題であり,補助モデルや付加データなしで問題を解くための学習パラダイムとしてノイズエントロピー正規化(NoiER)を提案する。
提案手法は従来のood検出評価基準を従来の微調整モデルと比較して平均55%改善した。
関連論文リスト
- Entailment as Robust Self-Learner [14.86757876218415]
我々は、複数の異なるNLUタスクを文脈的エンターテイメントとして定式化するプロンプト戦略を設計する。
自己学習における擬似ラベル品質向上のための簡易擬似ラベル編集(SimPLE)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T18:41:23Z) - Enhancing Text Generation with Cooperative Training [23.971227375706327]
ほとんどの一般的な方法は、別々に生成的および差別的なモデルを訓練し、互いに変化に適応できなかった。
本稿では,識別器とジェネレータをクローズドループで協調的に学習するテキスト分野におけるテキスト自己一貫性学習フレームワークを提案する。
我々のフレームワークは、モード崩壊や非収束といったトレーニングの不安定さを軽減することができる。
論文 参考訳(メタデータ) (2023-03-16T04:21:19Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z) - Learning to Perturb Word Embeddings for Out-of-distribution QA [55.103586220757464]
本論文では,入力問題と文脈の単語埋め込みを意味論を変化させることなく学習するノイズ発生器に基づく簡便かつ効果的なDA法を提案する。
ひとつのソースデータセットに,5つの異なるターゲットドメインに埋め込むことで,トレーニングされたQAモデルのパフォーマンスを検証する。
特に、私たちのトレーニングを受けたモデルは、240K以上の人工的なQAペアでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T14:12:26Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z) - Exploring Fine-tuning Techniques for Pre-trained Cross-lingual Models
via Continual Learning [74.25168207651376]
訓練済みの言語モデルから下流の言語間タスクへの微調整は、有望な結果を示している。
ダウンストリームタスクに微調整する場合、継続学習を活用して、事前学習したモデルの言語間能力を維持する。
提案手法は、ゼロショット言語間タグ付けや名前付きエンティティ認識タスクにおいて、他の微調整ベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-04-29T14:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。