論文の概要: Prompt Conditioned VAE: Enhancing Generative Replay for Lifelong
Learning in Task-Oriented Dialogue
- arxiv url: http://arxiv.org/abs/2210.07783v1
- Date: Fri, 14 Oct 2022 13:12:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 14:47:16.204100
- Title: Prompt Conditioned VAE: Enhancing Generative Replay for Lifelong
Learning in Task-Oriented Dialogue
- Title(参考訳): タスク指向対話における生涯学習のためのプロンプトコンディショルドvae:生成リプレイの強化
- Authors: Yingxiu Zhao, Yinhe Zheng, Zhiliang Tian, Chang Gao, Bowen Yu, Haiyang
Yu, Yongbin Li, Jian Sun, Nevin L. Zhang
- Abstract要約: 生成的再生法は、過去の知識と生成された擬似サンプルを統合するために広く用いられている。
既存の生成的再生法の多くは、モデルを制御するために単一のタスク固有のトークンのみを使用する。
本稿では,タスクの統計を取り入れて生成的再生を向上させるために,生涯学習のための新しい条件付きVAEを提案する。
- 参考スコア(独自算出の注目度): 80.05509768165135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lifelong learning (LL) is vital for advanced task-oriented dialogue (ToD)
systems. To address the catastrophic forgetting issue of LL, generative replay
methods are widely employed to consolidate past knowledge with generated pseudo
samples. However, most existing generative replay methods use only a single
task-specific token to control their models. This scheme is usually not strong
enough to constrain the generative model due to insufficient information
involved. In this paper, we propose a novel method, prompt conditioned VAE for
lifelong learning (PCLL), to enhance generative replay by incorporating tasks'
statistics. PCLL captures task-specific distributions with a conditional
variational autoencoder, conditioned on natural language prompts to guide the
pseudo-sample generation. Moreover, it leverages a distillation process to
further consolidate past knowledge by alleviating the noise in pseudo samples.
Experiments on natural language understanding tasks of ToD systems demonstrate
that PCLL significantly outperforms competitive baselines in building LL
models.
- Abstract(参考訳): 生涯学習(LL)は高度なタスク指向対話(ToD)システムにとって不可欠である。
LLの破滅的な忘れの問題に対処するために、過去の知識と生成された擬似サンプルを統合するために生成的再生法が広く用いられている。
しかしながら、既存の生成リプレイメソッドのほとんどは、モデルを制御するために単一のタスク固有のトークンのみを使用する。
このスキームは通常、情報不足のため生成モデルに制約を与えるほど強力ではない。
本稿では,タスクの統計を取り入れて生成的リプレイを向上させるために,生涯学習(PCLL)のための新しい条件付きVAEを提案する。
PCLLは、擬似サンプル生成を誘導する自然言語プロンプトに条件付き可変オートエンコーダでタスク固有の分布をキャプチャする。
さらに、蒸留プロセスを利用して、疑似サンプルのノイズを緩和することで過去の知識をさらに強化する。
ToDシステムの自然言語理解タスクの実験は、PCLLがLLモデルの構築において競争ベースラインを大幅に上回ることを示した。
関連論文リスト
- P-RAG: Progressive Retrieval Augmented Generation For Planning on Embodied Everyday Task [94.08478298711789]
Embodied Everyday Taskは、インボディードAIコミュニティで人気のあるタスクである。
自然言語命令は明示的なタスクプランニングを欠くことが多い。
タスク環境に関する知識をモデルに組み込むには、広範囲なトレーニングが必要である。
論文 参考訳(メタデータ) (2024-09-17T15:29:34Z) - Pre-trained Language Models Improve the Few-shot Prompt Ability of Decision Transformer [10.338170161831496]
決定変換器(DT)は、オフライン強化学習(RL)タスクにおいて、有望なアルゴリズムのクラスとして登場した。
本稿では,Language model-d Prompt Transformer (LPDT)を紹介し,Language model-d Prompt Transformer (LPDT)について述べる。
我々のアプローチは、事前訓練された言語モデルとRLタスクをシームレスに統合する。
論文 参考訳(メタデータ) (2024-08-02T17:25:34Z) - Domain Incremental Lifelong Learning in an Open World [45.704746275089555]
textbfDiana: a underlinedynamunderlineic underlinearchitecture based lifelounderlineng leunderlinearning model。
ダイアナでは4種類の階層的に整理されたプロンプトが、異なる粒度から知識を取得するために使われている。
論文 参考訳(メタデータ) (2023-05-11T04:19:08Z) - Can BERT Refrain from Forgetting on Sequential Tasks? A Probing Study [68.75670223005716]
BERTのような事前学習型言語モデルでは,メモリリプレイが少なくても,逐次学習が可能であることが判明した。
実験の結果,BERT は従来学習したタスクに対して,極めて疎らなリプレイや,さらにはリプレイを行なわずに,長期間にわたって高品質な表現を生成できることが判明した。
論文 参考訳(メタデータ) (2023-03-02T09:03:43Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - RVAE-LAMOL: Residual Variational Autoencoder to Enhance Lifelong
Language Learning [13.946029695618018]
Lifelong Language Learning (LLL)は、ニューラルネットワークをトレーニングして、従来のタスクからの知識を維持しながら、NLPタスクのストリームを学習することを目的としている。
データフリーの制約に従った以前の作業は、依然として破滅的な忘れの問題に悩まされている。
本稿では,最近のLLLモデルであるLAMOLを限定的な統一意味空間にマッピングすることにより拡張する残差自動エンコーダ(RVAE)を提案する。
論文 参考訳(メタデータ) (2022-05-22T15:52:35Z) - Learning to Prompt for Continual Learning [34.609384246149325]
本研究は,テスト時にタスクの同一性にアクセスすることなく,より簡潔なメモリシステムのトレーニングを目的とした,連続学習のための新しいパラダイムを提案する。
本手法は,タスク遷移の異なるタスクを逐次学習するための事前学習モデル(L2P)を動的に学習する。
目的は、モデル予測を指示するプロンプトを最適化し、モデル可塑性を維持しながら、タスク不変およびタスク固有知識を明示的に管理することである。
論文 参考訳(メタデータ) (2021-12-16T06:17:07Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Generative Feature Replay with Orthogonal Weight Modification for
Continual Learning [20.8966035274874]
生成的再生は、破滅的な忘れを和らげるために、以前のタスクの擬似データを生成し再生する有望な戦略である。
生成モデルを用いて垂直層の特徴を再現することを提案する; 2) 自己監督型補助タスクを活用して特徴の安定性をさらに向上する。
いくつかのデータセットにおける実験結果から,我々の手法は常に強力なOWMよりも大幅に改善されていることが分かる。
論文 参考訳(メタデータ) (2020-05-07T13:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。