論文の概要: Forging Multiple Training Objectives for Pre-trained Language Models via
Meta-Learning
- arxiv url: http://arxiv.org/abs/2210.10293v1
- Date: Wed, 19 Oct 2022 04:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:12:07.923720
- Title: Forging Multiple Training Objectives for Pre-trained Language Models via
Meta-Learning
- Title(参考訳): メタラーニングによる事前学習言語モデルのための複数学習目標の作成
- Authors: Hongqiu Wu, Ruixue Ding, Hai Zhao, Boli Chen, Pengjun Xie, Fei Huang,
Min Zhang
- Abstract要約: 複数の事前学習目標が単一目的言語モデリングの理解能力の欠如を埋める。
メタラーニングに基づく新しい適応型サンプリングシステムであるtextitMOMETAS を提案し,任意の事前学習対象に対して潜時サンプリングパターンを学習する。
- 参考スコア(独自算出の注目度): 97.28779163988833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple pre-training objectives fill the vacancy of the understanding
capability of single-objective language modeling, which serves the ultimate
purpose of pre-trained language models (PrLMs), generalizing well on a mass of
scenarios. However, learning multiple training objectives in a single model is
challenging due to the unknown relative significance as well as the potential
contrariety between them. Empirical studies have shown that the current
objective sampling in an ad-hoc manual setting makes the learned language
representation barely converge to the desired optimum. Thus, we propose
\textit{MOMETAS}, a novel adaptive sampler based on meta-learning, which learns
the latent sampling pattern on arbitrary pre-training objectives. Such a design
is lightweight with negligible additional training overhead. To validate our
approach, we adopt five objectives and conduct continual pre-training with
BERT-base and BERT-large models, where MOMETAS demonstrates universal
performance gain over other rule-based sampling strategies on 14 natural
language processing tasks.
- Abstract(参考訳): 複数の事前学習目標が、事前学習言語モデル(prlm)の究極の目的である単一目的言語モデリングの理解能力の欠如を満たしており、多くのシナリオをうまく一般化している。
しかし、1つのモデルで複数のトレーニング目標を学ぶことは、未知の相対的重要性とそれらの間の潜在的な適合性によって困難である。
実証的な研究により、現在、アドホックな手動設定における客観的サンプリングは、学習された言語表現を所望の最適値にほとんど収束させることが示されている。
そこで本稿では,任意の事前学習目的に対して潜伏サンプリングパターンを学習するメタラーニングに基づく適応型サンプラーである \textit{mometas} を提案する。
このような設計は軽量であり、追加のトレーニングオーバーヘッドは無視できる。
提案手法の有効性を検証するため,提案手法を5つの目標に適用し,BERT-baseおよびBERT-largeモデルを用いて継続事前学習を行い,MOMETASは14の自然言語処理タスクにおける他のルールベースサンプリング手法に比べて,普遍的な性能向上を示す。
関連論文リスト
- Integrating Self-supervised Speech Model with Pseudo Word-level Targets
from Visually-grounded Speech Model [57.78191634042409]
擬似単語レベルのターゲットを学習プロセスに統合するフレームワークであるPseudo-Word HuBERT(PW-HuBERT)を提案する。
4つの音声言語理解(SLU)ベンチマークによる実験結果から,意味情報の収集におけるモデルの有用性が示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:55:21Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Few-shot Subgoal Planning with Language Models [58.11102061150875]
事前訓練された言語モデルにエンコードされた言語は、細粒度のサブゴール列を推測できることを示す。
サブゴナル・インスペクションを強く仮定する最近の手法とは対照的に,我々の実験では,詳細なサブゴラル・シーケンスを微調整せずに推論できる言語モデルが示されている。
論文 参考訳(メタデータ) (2022-05-28T01:03:30Z) - Frustratingly Simple Pretraining Alternatives to Masked Language
Modeling [10.732163031244651]
Masked Language Modeling (MLM) は自然言語処理においてテキスト表現の学習に広く用いられている。
本稿では,トークンレベルの分類タスクを表現の代替として用いた5つの簡単な事前学習目標について検討する。
論文 参考訳(メタデータ) (2021-09-04T08:52:37Z) - Task-specific Objectives of Pre-trained Language Models for Dialogue
Adaptation [79.0866650271659]
PrLMを利用する一般的なプロセスは、まずタスク非依存のLMトレーニング目標を持つ大規模汎用コーパス上で事前トレーニングを行い、タスク固有のトレーニング目標を持つタスクデータセットを微調整する。
タスク固有の目的を持つドメイン内タスク関連コーパスにタスク固有の事前学習を導入する。
この手順は、特定のタスクのモデル理解能力を高めるために、元の2つのステージの間に置かれる。
論文 参考訳(メタデータ) (2020-09-10T16:46:46Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。