論文の概要: Pre-training Text Representations as Meta Learning
- arxiv url: http://arxiv.org/abs/2004.05568v1
- Date: Sun, 12 Apr 2020 09:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:22:15.894080
- Title: Pre-training Text Representations as Meta Learning
- Title(参考訳): メタ学習としての事前学習テキスト表現
- Authors: Shangwen Lv, Yuechen Wang, Daya Guo, Duyu Tang, Nan Duan, Fuqing Zhu,
Ming Gong, Linjun Shou, Ryan Ma, Daxin Jiang, Guihong Cao, Ming Zhou, Songlin
Hu
- Abstract要約: 本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
- 参考スコア(独自算出の注目度): 113.3361289756749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training text representations has recently been shown to significantly
improve the state-of-the-art in many natural language processing tasks. The
central goal of pre-training is to learn text representations that are useful
for subsequent tasks. However, existing approaches are optimized by minimizing
a proxy objective, such as the negative log likelihood of language modeling. In
this work, we introduce a learning algorithm which directly optimizes model's
ability to learn text representations for effective learning of downstream
tasks. We show that there is an intrinsic connection between multi-task
pre-training and model-agnostic meta-learning with a sequence of meta-train
steps. The standard multi-task learning objective adopted in BERT is a special
case of our learning algorithm where the depth of meta-train is zero. We study
the problem in two settings: unsupervised pre-training and supervised
pre-training with different pre-training objects to verify the generality of
our approach.Experimental results show that our algorithm brings improvements
and learns better initializations for a variety of downstream tasks.
- Abstract(参考訳): テキスト表現の事前学習は、多くの自然言語処理タスクにおいて最先端の技術を大幅に改善することが最近示されている。
事前学習の主な目的は、その後のタスクに役立つテキスト表現を学ぶことである。
しかし、既存のアプローチは、言語モデリングの負のログ可能性のようなプロキシの目的を最小化することで最適化される。
本研究では,下流タスクの効果的な学習のために,テキスト表現を学習するモデルの能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存なメタ学習の間には,メタトレーニングステップのシーケンスとの間に本質的な関連があることを示す。
BERTの標準マルチタスク学習目的はメタトレインの深さがゼロとなる学習アルゴリズムの特殊な場合である。
提案手法の一般性を検証するために, 教師なし事前学習と教師付き事前学習という2つの設定で検討を行い, 実験結果から, アルゴリズムが改良をもたらし, 様々な下流タスクのより優れた初期化を学習できることが示唆された。
関連論文リスト
- General-Purpose In-Context Learning by Meta-Learning Transformers [45.63069059498147]
本研究では,トランスフォーマーや他のブラックボックスモデルをメタトレーニングして,汎用的なインコンテキスト学習者として機能させることができることを示す。
一般化するアルゴリズム、記憶するアルゴリズム、メタトレーニングに失敗するアルゴリズム間の遷移を特徴付ける。
本稿では,学習アルゴリズムのメタトレーニングとメタ汎用化を改善するためのトレーニング分布の偏りなどの実践的介入を提案する。
論文 参考訳(メタデータ) (2022-12-08T18:30:22Z) - Grad2Task: Improved Few-shot Text Classification Using Gradients for
Task Representation [24.488427641442694]
本稿では,数ショットのテキスト分類のための条件付きニューラルプロセスに基づく新しいアプローチを提案する。
私たちのキーとなるアイデアは、ベースモデルからの勾配情報を使って各タスクを表現することです。
我々のアプローチは、従来の微調整、シーケンシャルトランスファーラーニング、そして最先端のメタラーニングアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-01-27T15:29:30Z) - Unified Multimodal Pre-training and Prompt-based Tuning for
Vision-Language Understanding and Generation [86.26522210882699]
視覚言語理解と生成のための統一型マルチモーダル事前学習を提案する。
提案したUniVLは、理解タスクと生成タスクの両方を扱うことができる。
実験の結果,同じモデルを用いた場合,理解タスクと生成タスクとの間にはトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2021-12-10T14:59:06Z) - MetaICL: Learning to Learn In Context [87.23056864536613]
そこで我々は,メタICLというメタトレーニングフレームワークを紹介した。このフレームワークでは,事前学習された言語モデルが,大量のトレーニングタスクに対してコンテキスト内学習を行うように調整されている。
その結果,MetaICLは,目標タスクトレーニングデータに対して完全に微調整されたモデルの性能にアプローチ(時には打ち負かす)し,ほぼ8倍のパラメータを持つモデルよりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-10-29T17:42:08Z) - Meta-learning for downstream aware and agnostic pretraining [7.2051162210119495]
本稿では,メタラーニングを用いて,事前学習の各エピソードにおいて最も有意義な学習信号を提供するタスクを選択することを提案する。
本手法とその2つの変種である下流認識と下流認識事前学習のアルゴリズムについて論じる。
論文 参考訳(メタデータ) (2021-06-06T23:08:09Z) - Self-Supervised Meta-Learning for Few-Shot Natural Language
Classification Tasks [40.97125791174191]
ラベルのないテキストから大規模でリッチなメタ学習タスク分布を生成するための自己教師型手法を提案する。
このメタトレーニングは、言語モデル事前学習の後に微調整を行うよりも、数ショットの一般化に繋がることを示す。
論文 参考訳(メタデータ) (2020-09-17T17:53:59Z) - Recall and Learn: Fine-tuning Deep Pretrained Language Models with Less
Forgetting [66.45372974713189]
本稿では,マルチタスク学習の概念を取り入れたリコール・アンド・ラーニング機構を提案し,事前学習タスクと下流タスクを共同で学習する。
実験により,本手法はGLUEベンチマークの最先端性能を実現することが示された。
我々はオープンソースのRecAdamを提供し、提案されたメカニズムをAdamに統合し、NLPコミュニティを施設化する。
論文 参考訳(メタデータ) (2020-04-27T08:59:57Z) - Don't Stop Pretraining: Adapt Language Models to Domains and Tasks [81.99843216550306]
バイオメディカルおよびコンピュータサイエンスの出版物、ニュース、レビュー)と8つの分類タスクについて調査する。
ドメイン内の事前トレーニング(ドメイン適応型事前トレーニング)の第2フェーズでは、パフォーマンスが向上する。
タスクの未ラベルデータ(タスク適応事前トレーニング)に適応することで、ドメイン適応事前トレーニング後のパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-04-23T04:21:19Z) - Train No Evil: Selective Masking for Task-Guided Pre-Training [97.03615486457065]
一般的な事前学習と微調整の間を選択的にマスキングするタスク誘導事前学習段階を付加した3段階のフレームワークを提案する。
提案手法は,50%未満のコストで同等あるいはさらに優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-04-21T03:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。