論文の概要: Lifelong Generative Learning via Knowledge Reconstruction
- arxiv url: http://arxiv.org/abs/2201.06418v1
- Date: Mon, 17 Jan 2022 14:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 16:44:06.941258
- Title: Lifelong Generative Learning via Knowledge Reconstruction
- Title(参考訳): 知識再構築による生涯学習
- Authors: Libo Huang, Zhulin An, Xiang Zhi, and Yongjun Xu
- Abstract要約: 可変オートエンコーダ(VAE)に基づく効率的な寿命生成モデルを構築した。
本研究では,VAEの本質的な再構築特性を歴史的知識保持に拡張することにより,生涯的生成モデルを推定する。
- 参考スコア(独自算出の注目度): 10.69710386681696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models often incur the catastrophic forgetting problem when they
are used to sequentially learning multiple tasks, i.e., lifelong generative
learning. Although there are some endeavors to tackle this problem, they suffer
from high time-consumptions or error accumulation. In this work, we develop an
efficient and effective lifelong generative model based on variational
autoencoder (VAE). Unlike the generative adversarial network, VAE enjoys high
efficiency in the training process, providing natural benefits with few
resources. We deduce a lifelong generative model by expending the intrinsic
reconstruction character of VAE to the historical knowledge retention. Further,
we devise a feedback strategy about the reconstructed data to alleviate the
error accumulation. Experiments on the lifelong generating tasks of MNIST,
FashionMNIST, and SVHN verified the efficacy of our approach, where the results
were comparable to SOTA.
- Abstract(参考訳): 生成モデルはしばしば、複数のタスク、すなわち生涯の生成学習を逐次学習するために使用されるとき、破滅的な放棄問題を引き起こす。
この問題に取り組む努力はいくつかあるが、彼らは高い時間消費やエラーの蓄積に悩まされている。
本研究では,変分オートエンコーダ(VAE)に基づく,効率的かつ効率的な寿命生成モデルを開発する。
生成的敵ネットワークとは異なり、VAEはトレーニングプロセスにおいて高い効率を享受し、少ないリソースで自然な利益を提供する。
本研究は,vaeの固有再構成特性を歴史知識保持に拡張することにより,生涯の生成モデルを提案する。
さらに,再構成データに対するフィードバック戦略を考案し,誤りの蓄積を緩和する。
MNIST, FashionMNIST, SVHNの持続的生成タスクに関する実験により, SOTAに匹敵する結果が得られた。
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Prompt Conditioned VAE: Enhancing Generative Replay for Lifelong
Learning in Task-Oriented Dialogue [80.05509768165135]
生成的再生法は、過去の知識と生成された擬似サンプルを統合するために広く用いられている。
既存の生成的再生法の多くは、モデルを制御するために単一のタスク固有のトークンのみを使用する。
本稿では,タスクの統計を取り入れて生成的再生を向上させるために,生涯学習のための新しい条件付きVAEを提案する。
論文 参考訳(メタデータ) (2022-10-14T13:12:14Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Shared and Private VAEs with Generative Replay for Continual Learning [1.90365714903665]
継続的学習は、学習済みのタスクを忘れずに新しいタスクを学習しようとする。
既存のartificial neural network (ann)モデルのほとんどは失敗するが、人間は生涯にわたって過去の作品を思い出して同じことをする。
我々は,MNIST,Permuted MNIST(QMNIST),CIFAR100,MiniImageNetデータセットなどの視覚的連続学習ベンチマークにおいて,このハイブリッドモデルの有効性を示す。
論文 参考訳(メタデータ) (2021-05-17T06:18:36Z) - Lifelong Learning of Few-shot Learners across NLP Tasks [45.273018249235705]
私たちは、さまざまなNLPタスクのシーケンスを通じて、生涯学習の難しさを研究します。
アダプタウェイトの生成をいくつかの例から学ぶ,継続的なメタラーニングアプローチを提案する。
私たちのアプローチは、トレーニングタスクよりもモデルのパフォーマンスを維持し、将来のタスクが学習されるとポジティブな知識伝達につながります。
論文 参考訳(メタデータ) (2021-04-18T10:41:56Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z) - Generative Feature Replay with Orthogonal Weight Modification for
Continual Learning [20.8966035274874]
生成的再生は、破滅的な忘れを和らげるために、以前のタスクの擬似データを生成し再生する有望な戦略である。
生成モデルを用いて垂直層の特徴を再現することを提案する; 2) 自己監督型補助タスクを活用して特徴の安定性をさらに向上する。
いくつかのデータセットにおける実験結果から,我々の手法は常に強力なOWMよりも大幅に改善されていることが分かる。
論文 参考訳(メタデータ) (2020-05-07T13:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。