論文の概要: Lifelong Twin Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2107.04708v1
- Date: Fri, 9 Jul 2021 22:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 10:01:07.323680
- Title: Lifelong Twin Generative Adversarial Networks
- Title(参考訳): 長寿命双対生成対向ネットワーク
- Authors: Fei Ye and Adrian G. Bors
- Abstract要約: LT-GAN(Lifelong Twin Generative Adversarial Networks)と呼ばれる連続学習型生成モデルを提案する。
LT-GANが忘れることなく新しい概念を学べるように、我々は新しい生涯学習アプローチ、すなわち生涯適応的知識蒸留(LAKD)を導入する。
- 参考スコア(独自算出の注目度): 15.350366047108103
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we propose a new continuously learning generative model,
called the Lifelong Twin Generative Adversarial Networks (LT-GANs). LT-GANs
learns a sequence of tasks from several databases and its architecture consists
of three components: two identical generators, namely the Teacher and
Assistant, and one Discriminator. In order to allow for the LT-GANs to learn
new concepts without forgetting, we introduce a new lifelong training approach,
namely Lifelong Adversarial Knowledge Distillation (LAKD), which encourages the
Teacher and Assistant to alternately teach each other, while learning a new
database. This training approach favours transferring knowledge from a more
knowledgeable player to another player which knows less information about a
previously given task.
- Abstract(参考訳): 本稿では,ライフロングツイン生成適応ネットワーク (LT-GAN) と呼ばれる連続学習型生成モデルを提案する。
LT-GANは複数のデータベースから一連のタスクを学習し、そのアーキテクチャは3つのコンポーネントで構成されている。
lt-gansが忘れずに新しい概念を学べるようにするため、教師とアシスタントが交互に相互に教え合うように促し、新しいデータベースを学習しながら、生涯にわたって学習する新しい訓練手法、lakd(lifelong adversarial knowledge distillation)を導入する。
このトレーニングアプローチは、より知識のあるプレイヤーから、以前与えられたタスクに関する情報が少ない他のプレイヤーに知識を移すことを好む。
関連論文リスト
- Multi-Stage Knowledge Integration of Vision-Language Models for Continual Learning [79.46570165281084]
蒸留法における人間の学習過程をエミュレートするマルチステージ知識統合ネットワーク(MulKI)を提案する。
Mulkiは、イデオロギーの排除、新しいイデオロギーの追加、イデオロギーの排除、コネクティクスの作りという4つの段階を通じてこれを達成している。
提案手法は,下流タスク間の連続学習をサポートしながら,ゼロショット能力の維持における大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-11T07:36:19Z) - Lifelong Sequence Generation with Dynamic Module Expansion and
Adaptation [39.886149621730915]
寿命シーケンス生成(LSG)は、連続した世代タスクに基づいてモデルを継続的に訓練し、常に新しい世代パターンを学ぶことを目的としている。
人間の学習パラダイムにヒントを得て,動的モジュール拡張適応(DMEA)を提案する。
DMEAにより、タスク相関に基づいて新しい知識を取得するためのアーキテクチャを動的に決定し、最も類似したタスクを選択して、新しいタスクへの適応を容易にすることができる。
論文 参考訳(メタデータ) (2023-10-15T16:51:11Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z) - Semi-Supervised Lifelong Language Learning [81.0685290973989]
ラベル付きデータとラベルなしデータの両方を用いて、モデルが逐次到着する言語タスクを学習する、新しい半教師付き生涯言語学習(SSLL)について検討する。
特に、破滅的な忘れを軽減し、ラベルのないデータを活用するために2つのモジュールを設計するために、タスク固有のモジュールに特化しています。
各種言語課題に対する実験結果から,本モデルの有効性と,競争的ベースラインよりも優越性を示す。
論文 参考訳(メタデータ) (2022-11-23T15:51:33Z) - ConTinTin: Continual Learning from Task Instructions [101.36836925135091]
本研究は,新たな学習パラダイムであるConTinTinを定義した。
私たちの知る限り、NLPでConTinTinを研究するのは今回が初めてです。
論文 参考訳(メタデータ) (2022-03-16T10:27:18Z) - Continual Learning with Knowledge Transfer for Sentiment Classification [20.5365406439092]
Kanは、フォワードとバックワードの知識伝達によって、新しいタスクと古いタスクの両方の精度を著しく向上させることができる。
カンの有効性は広範な実験によって実証される。
論文 参考訳(メタデータ) (2021-12-18T22:58:21Z) - Lifelong Teacher-Student Network Learning [15.350366047108103]
本稿では,教師-学生ネットワークフレームワークを用いた生涯学習手法を提案する。
教師は、以前に学習したデータベースの確率的表現に対応する過去の知識を保存し、再生するように訓練されている。
学生モジュールは、異なるドメインにまたがる連続的なデータ表現と離散的なデータ表現の両方をキャプチャするように訓練されている。
論文 参考訳(メタデータ) (2021-07-09T21:25:56Z) - Lifelong Learning using Eigentasks: Task Separation, Skill Acquisition,
and Selective Transfer [5.956779409640442]
生涯学習のための固有タスクフレームワークを紹介する。
固有タスク(英: eigentask)とは、一連の関連するタスクを、スキルの入力空間からサンプリングできる生成モデルと組み合わせて解決するスキルである。
本稿では,我々のフレームワークにおける学習のためのタスク学習と知識の統合を交互に行う覚醒サイクルを提案し,それを生涯指導的学習と生涯RLのためにインスタンス化する。
論文 参考訳(メタデータ) (2020-07-14T09:06:13Z) - Peer Collaborative Learning for Online Knowledge Distillation [69.29602103582782]
Peer Collaborative Learningメソッドは、オンラインアンサンブルとネットワークコラボレーションを統合フレームワークに統合する。
CIFAR-10, CIFAR-100, ImageNetによる実験により, 提案手法は種々のバックボーンネットワークの一般化を著しく改善することを示した。
論文 参考訳(メタデータ) (2020-06-07T13:21:52Z) - Data-Free Knowledge Amalgamation via Group-Stack Dual-GAN [80.17705319689139]
複数のシングルタスク/マルチタスクの教師から,多タスクの学生ネットワークを構築するために,データフリーな知識アマルガメート戦略を提案する。
トレーニングデータを持たない提案手法は, フル教師付き手法と比較して, 驚くほど競争力のある結果が得られる。
論文 参考訳(メタデータ) (2020-03-20T03:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。