論文の概要: Lifelong Learning of Few-shot Learners across NLP Tasks
- arxiv url: http://arxiv.org/abs/2104.08808v1
- Date: Sun, 18 Apr 2021 10:41:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:05:53.755332
- Title: Lifelong Learning of Few-shot Learners across NLP Tasks
- Title(参考訳): NLP課題における一括学習者の生涯学習
- Authors: Xisen Jin, Mohammad Rostami, Xiang Ren
- Abstract要約: 私たちは、さまざまなNLPタスクのシーケンスを通じて、生涯学習の難しさを研究します。
アダプタウェイトの生成をいくつかの例から学ぶ,継続的なメタラーニングアプローチを提案する。
私たちのアプローチは、トレーニングタスクよりもモデルのパフォーマンスを維持し、将来のタスクが学習されるとポジティブな知識伝達につながります。
- 参考スコア(独自算出の注目度): 45.273018249235705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large pre-trained language models have greatly improved
the performance on a broad set of NLP tasks. However, adapting an existing
model to new tasks often requires (repeated) re-training over enormous labeled
data that is prohibitively expensive to obtain. Moreover, models learned on new
tasks may gradually "forget" about the knowledge learned from earlier tasks
(i.e., catastrophic forgetting). In this paper, we study the challenge of
lifelong learning to few-shot learn over a sequence of diverse NLP tasks,
through continuously fine-tuning a language model. We investigate the model's
ability of few-shot generalization to new tasks while retaining its performance
on the previously learned tasks. We explore existing continual learning methods
in solving this problem and propose a continual meta-learning approach which
learns to generate adapter weights from a few examples while regularizing
changes of the weights to mitigate catastrophic forgetting. We demonstrate our
approach preserves model performance over training tasks and leads to positive
knowledge transfer when the future tasks are learned.
- Abstract(参考訳): 大規模な事前学習型言語モデルの最近の進歩は、幅広いNLPタスクの性能を大幅に向上させた。
しかし、既存のモデルを新しいタスクに適応させるには、膨大なラベル付きデータに対して(繰り返し)再トレーニングする必要がある。
さらに、新しいタスクで学んだモデルは、以前のタスク(すなわち破滅的な忘れ物)から学んだ知識を徐々に「忘れる」ことができる。
本稿では,言語モデルを連続的に微調整することで,多種多様なNLPタスクを数秒で学習する生涯学習の課題について検討する。
学習したタスクの性能を維持しつつ,新しいタスクに数発の一般化を施すモデルの能力について検討する。
本稿では,この問題を解決するための既存の連続学習手法を探求し,いくつかの例からアダプタウェイトの生成を学習しながら,破滅的な忘れを緩和するメタラーニング手法を提案する。
提案手法は,トレーニングタスクよりもモデルパフォーマンスを保ち,将来のタスクが学習されると,肯定的な知識伝達につながることを実証する。
関連論文リスト
- Continual Learning for Large Language Models: A Survey [95.79977915131145]
大規模言語モデル(LLM)は、大規模なトレーニングコストが高いため、頻繁な再トレーニングには適さない。
本稿では,LLMの連続学習に関する最近の研究について述べる。
論文 参考訳(メタデータ) (2024-02-02T12:34:09Z) - Efficient Rehearsal Free Zero Forgetting Continual Learning using
Adaptive Weight Modulation [3.6683171094134805]
継続的な学習には、長期にわたって複数のタスクの知識を取得することが含まれる。
この問題に対するほとんどのアプローチは、新しいタスクのパフォーマンスを最大化することと、以前のタスクの忘れを最小化することのバランスを求める。
提案手法は,新しいタスクの性能を最大化しつつ,忘れることのゼロを保証しようとするものである。
論文 参考訳(メタデータ) (2023-11-26T12:36:05Z) - Lifelong Sequence Generation with Dynamic Module Expansion and
Adaptation [39.886149621730915]
寿命シーケンス生成(LSG)は、連続した世代タスクに基づいてモデルを継続的に訓練し、常に新しい世代パターンを学ぶことを目的としている。
人間の学習パラダイムにヒントを得て,動的モジュール拡張適応(DMEA)を提案する。
DMEAにより、タスク相関に基づいて新しい知識を取得するためのアーキテクチャを動的に決定し、最も類似したタスクを選択して、新しいタスクへの適応を容易にすることができる。
論文 参考訳(メタデータ) (2023-10-15T16:51:11Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Can BERT Refrain from Forgetting on Sequential Tasks? A Probing Study [68.75670223005716]
BERTのような事前学習型言語モデルでは,メモリリプレイが少なくても,逐次学習が可能であることが判明した。
実験の結果,BERT は従来学習したタスクに対して,極めて疎らなリプレイや,さらにはリプレイを行なわずに,長期間にわたって高品質な表現を生成できることが判明した。
論文 参考訳(メタデータ) (2023-03-02T09:03:43Z) - Preventing Catastrophic Forgetting in Continual Learning of New Natural
Language Tasks [17.879087904904935]
マルチタスク学習(MTL)は、自然言語処理において、1つのモデルで複数の関連するタスクを学習するための標準技術として広く受け入れられている。
通常、システムは時間とともに進化するので、既存のMTLモデルに新しいタスクを追加するには、通常、すべてのタスクをスクラッチから再トレーニングする必要があります。
本稿では、n+1タスクを解くための新しいタスクに、既に訓練済みのnタスクに関するモデルの知識を蒸留することにより、MTLモデルの能力を漸進的に拡張し、新しいタスクを時間とともに解決する問題にアプローチする。
論文 参考訳(メタデータ) (2023-02-22T00:18:25Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Rectification-based Knowledge Retention for Continual Learning [49.1447478254131]
ディープラーニングモデルは、インクリメンタルな学習環境で訓練されたときに壊滅的な忘れに苦しむ。
タスクインクリメンタル学習問題に対処するための新しいアプローチを提案する。これは、インクリメンタルに到着する新しいタスクに関するモデルをトレーニングすることを含む。
私たちのアプローチは、ゼロショットと非ゼロショットタスクインクリメンタルラーニング設定の両方で使用できます。
論文 参考訳(メタデータ) (2021-03-30T18:11:30Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Continual Learning Using Multi-view Task Conditional Neural Networks [6.27221711890162]
従来のディープラーニングモデルは、複数のタスクを逐次学習する能力に制限がある。
再帰的なタスクを事前に知る必要のないマルチビュータスク条件ニューラルネットワーク(Mv-TCNN)を提案する。
論文 参考訳(メタデータ) (2020-05-08T01:03:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。