論文の概要: RVAE-LAMOL: Residual Variational Autoencoder to Enhance Lifelong
Language Learning
- arxiv url: http://arxiv.org/abs/2205.10857v1
- Date: Sun, 22 May 2022 15:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:14:16.188039
- Title: RVAE-LAMOL: Residual Variational Autoencoder to Enhance Lifelong
Language Learning
- Title(参考訳): RVAE-LAMOL:生涯学習を支援する残差自動エンコーダ
- Authors: Han Wang, Ruiliu Fu, Xuejun Zhang, Jun Zhou
- Abstract要約: Lifelong Language Learning (LLL)は、ニューラルネットワークをトレーニングして、従来のタスクからの知識を維持しながら、NLPタスクのストリームを学習することを目的としている。
データフリーの制約に従った以前の作業は、依然として破滅的な忘れの問題に悩まされている。
本稿では,最近のLLLモデルであるLAMOLを限定的な統一意味空間にマッピングすることにより拡張する残差自動エンコーダ(RVAE)を提案する。
- 参考スコア(独自算出の注目度): 13.946029695618018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lifelong Language Learning (LLL) aims to train a neural network to learn a
stream of NLP tasks while retaining knowledge from previous tasks. However,
previous works which followed data-free constraint still suffer from
catastrophic forgetting issue, where the model forgets what it just learned
from previous tasks. In order to alleviate catastrophic forgetting, we propose
the residual variational autoencoder (RVAE) to enhance LAMOL, a recent LLL
model, by mapping different tasks into a limited unified semantic space. In
this space, previous tasks are easy to be correct to their own distribution by
pseudo samples. Furthermore, we propose an identity task to make the model is
discriminative to recognize the sample belonging to which task. For training
RVAE-LAMOL better, we propose a novel training scheme Alternate Lag Training.
In the experiments, we test RVAE-LAMOL on permutations of three datasets from
DecaNLP. The experimental results demonstrate that RVAE-LAMOL outperforms
na\"ive LAMOL on all permutations and generates more meaningful pseudo-samples.
- Abstract(参考訳): Lifelong Language Learning (LLL)は、ニューラルネットワークをトレーニングして、従来のタスクからの知識を保持しながら、NLPタスクのストリームを学習することを目的としている。
しかし、データ自由制約に従う以前の作業は、モデルが以前のタスクから学んだことを忘れるという壊滅的な問題に苦しむ。
破滅的な忘れを和らげるために,最近のLLLモデルであるLAMOLを限定的な統一意味空間にマッピングすることにより,残差自動エンコーダ(RVAE)を提案する。
この空間では、前のタスクは擬似サンプルによって自分自身の分布に容易に修正できる。
さらに,モデルに識別性を持たせるための識別タスクを提案し,どのタスクに属するサンプルを識別する。
RVAE-LAMOLをより良く訓練するために,新しいトレーニングスキームであるAlternate Lag Trainingを提案する。
実験では,DecaNLPの3つのデータセットの置換に対してRVAE-LAMOLを試験した。
実験の結果、RVAE-LAMOLはすべての置換においてna\"ive LAMOLよりも優れ、より意味のある擬似サンプルを生成することが示された。
関連論文リスト
- Continual learning with task specialist [2.8830182365988923]
破滅的な忘れと限定されたラベル付きデータの問題に対処するために,タスクスペシャリストによる連続学習(CLTS)を提案する。
モデルはタスクスペシャリスト(T S)とタスク予測器(T P)と、事前訓練された安定拡散(SD)モジュールで構成される。
3つの実世界のデータセットで行った4つのSOTAモデルとの比較研究により、提案モデルが選択されたベースラインすべてより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-26T12:59:09Z) - Meta-Tasks: An alternative view on Meta-Learning Regularization [17.738450255829633]
本稿では,未ラベルのサンプルを生かしながら,トレーニングと新規タスクの両方に一般化できる新しいソリューションを提案する。
実験の結果,提案手法はプロトタイプネットワークを3.9%上回る性能を示した。
論文 参考訳(メタデータ) (2024-02-27T21:15:40Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Improving Large Language Models via Fine-grained Reinforcement Learning with Minimum Editing Constraint [104.53687944498155]
強化学習(RL)は、大規模言語モデル(LLM)の訓練に広く用いられている。
本稿では,報酬モデルとして生成モデルを組み込んだRL法 RLMEC を提案する。
生成報酬モデルに基づいて、トレーニングのためのトークンレベルRL目標と、RLプロセスの安定化のための模倣ベース正規化を設計する。
論文 参考訳(メタデータ) (2024-01-11T17:58:41Z) - How Many Pretraining Tasks Are Needed for In-Context Learning of Linear Regression? [92.90857135952231]
様々なタスクで事前訓練されたトランスフォーマーは、顕著なインコンテキスト学習(ICL)能力を示す。
線形回帰のための線形パラメータ化単一層線形アテンションモデルの事前学習を行う。
論文 参考訳(メタデータ) (2023-10-12T15:01:43Z) - Language Reward Modulation for Pretraining Reinforcement Learning [61.76572261146311]
本稿では,強化学習のための事前学習信号としてLRFの機能を活用することを提案する。
我々の VLM プレトレーニングアプローチは,従来の LRF の使い方とは違い,ロボット操作タスクにおけるサンプル効率の学習を温めることができる。
論文 参考訳(メタデータ) (2023-08-23T17:37:51Z) - Prompt Conditioned VAE: Enhancing Generative Replay for Lifelong
Learning in Task-Oriented Dialogue [80.05509768165135]
生成的再生法は、過去の知識と生成された擬似サンプルを統合するために広く用いられている。
既存の生成的再生法の多くは、モデルを制御するために単一のタスク固有のトークンのみを使用する。
本稿では,タスクの統計を取り入れて生成的再生を向上させるために,生涯学習のための新しい条件付きVAEを提案する。
論文 参考訳(メタデータ) (2022-10-14T13:12:14Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Lifelong Learning of Few-shot Learners across NLP Tasks [45.273018249235705]
私たちは、さまざまなNLPタスクのシーケンスを通じて、生涯学習の難しさを研究します。
アダプタウェイトの生成をいくつかの例から学ぶ,継続的なメタラーニングアプローチを提案する。
私たちのアプローチは、トレーニングタスクよりもモデルのパフォーマンスを維持し、将来のタスクが学習されるとポジティブな知識伝達につながります。
論文 参考訳(メタデータ) (2021-04-18T10:41:56Z) - Few Is Enough: Task-Augmented Active Meta-Learning for Brain Cell
Classification [8.998976678920236]
本稿では,Deep Neural Networks を新しいタスクに効率的に適応する tAsk-auGmented actIve meta-LEarning (AGILE) 手法を提案する。
AGILEはメタ学習アルゴリズムと,初期適応モデルを生成するための新しいタスク拡張手法を組み合わせる。
提案するタスク強化メタラーニングフレームワークは,1段階の段階を経て,新たな細胞タイプを分類することができることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。