論文の概要: Task-guided Disentangled Tuning for Pretrained Language Models
- arxiv url: http://arxiv.org/abs/2203.11431v1
- Date: Tue, 22 Mar 2022 03:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 14:01:58.859127
- Title: Task-guided Disentangled Tuning for Pretrained Language Models
- Title(参考訳): 事前学習型言語モデルのためのタスク誘導型アンタングル型チューニング
- Authors: Jiali Zeng, Yufan Jiang, Shuangzhi Wu, Yongjing Yin, Mu Li
- Abstract要約: 本稿では,事前学習型言語モデル(PLM)のためのタスク誘導型ディスタングル型チューニング(TDT)を提案する。
TDTは、タスク関連信号を絡み合った表現から切り離すことにより、表現の一般化を強化する。
GLUE と CLUE のベンチマークによる実験結果から,TDT は異なる PLM を用いた微調整よりも一貫した結果が得られた。
- 参考スコア(独自算出の注目度): 16.429787408467703
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pretrained language models (PLMs) trained on large-scale unlabeled corpus are
typically fine-tuned on task-specific downstream datasets, which have produced
state-of-the-art results on various NLP tasks. However, the data discrepancy
issue in domain and scale makes fine-tuning fail to efficiently capture
task-specific patterns, especially in the low data regime. To address this
issue, we propose Task-guided Disentangled Tuning (TDT) for PLMs, which
enhances the generalization of representations by disentangling task-relevant
signals from the entangled representations. For a given task, we introduce a
learnable confidence model to detect indicative guidance from context, and
further propose a disentangled regularization to mitigate the over-reliance
problem. Experimental results on GLUE and CLUE benchmarks show that TDT gives
consistently better results than fine-tuning with different PLMs, and extensive
analysis demonstrates the effectiveness and robustness of our method. Code is
available at https://github.com/lemon0830/TDT.
- Abstract(参考訳): 大規模未ラベルコーパスでトレーニングされた事前学習言語モデル(PLM)は、通常、タスク固有の下流データセットに基づいて微調整される。
しかし、ドメインとスケールにおけるデータの相違は、微調整が特に低いデータ構造において、タスク固有のパターンを効率的に捉えるのに失敗する。
この問題に対処するため, PLM のタスク誘導型非絡み付きチューニング (TDT) を提案し, 絡み合った表現からタスク関連信号をアンタングルすることで表現の一般化を促進する。
与えられたタスクに対して,文脈からの指示的指示を検出するための学習可能な信頼モデルを導入し,さらに,過度に依存する問題を緩和するための不連続正則化を提案する。
GLUE と CLUE のベンチマークによる実験結果から,TDT は異なる PLM を用いた微調整よりも一貫した結果が得られることが示された。
コードはhttps://github.com/lemon0830/TDTで入手できる。
関連論文リスト
- SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - TAIA: Large Language Models are Out-of-Distribution Data Learners [30.57872423927015]
効果的な推論時間介入手法を提案する:全てのパラメータを訓練するが、注意のみで推論する(trainallInfAttn)。
trainallInfAttnは、ほとんどのシナリオで完全に調整されたモデルとベースモデルの両方と比較して、優れた改善を実現している。
trainallInfAttnのデータのミスマッチに対する高い耐性は、jailbreakのチューニングに耐性を持ち、一般的なデータを使った特別なタスクを強化する。
論文 参考訳(メタデータ) (2024-05-30T15:57:19Z) - Self-Distillation Bridges Distribution Gap in Language Model Fine-Tuning [29.72531930169291]
SDFT (Self-Distillation Fine-Tuning) は, モデル自体が生成した蒸留データセットを用いて, 分散ギャップを埋める手法である。
様々なベンチマークにおけるLlama-2-chatモデルの実験結果は、SDFTが破滅的な忘れを効果的に軽減することを示した。
論文 参考訳(メタデータ) (2024-02-21T10:06:08Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Prompt Tuning for Discriminative Pre-trained Language Models [96.04765512463415]
最近の研究は、自然言語処理(NLP)タスクに事前訓練言語モデル(PLM)を刺激する際の迅速なチューニングの有望な結果を示している。
ELECTRAのような差別的なPLMが、いかに効果的に迅速なチューニングが可能かは、まだ不明である。
DPTは,NLPタスクを識別言語モデリング問題に書き換える,識別型PLMの最初のプロンプトチューニングフレームワークである。
論文 参考訳(メタデータ) (2022-05-23T10:11:50Z) - CSS-LM: A Contrastive Framework for Semi-supervised Fine-tuning of
Pre-trained Language Models [59.49705076369856]
プレトレーニング言語モデル(PLM)の微調整フェーズを改善するための新しいフレームワークを提案する。
大規模未ラベルコーパスから,タスクに対するドメインレベルおよびクラスレベルの意味的関連性に応じて,正および負のインスタンスを検索する。
次に、検索したラベル付きおよびオリジナルラベル付きの両方のインスタンスに対して、対照的な半教師付き学習を行い、PLMが重要なタスク関連セマンティックな特徴をキャプチャするのを助ける。
論文 参考訳(メタデータ) (2021-02-07T09:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。