論文の概要: Conservative Generator, Progressive Discriminator: Coordination of
Adversaries in Few-shot Incremental Image Synthesis
- arxiv url: http://arxiv.org/abs/2207.14491v1
- Date: Fri, 29 Jul 2022 06:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:56:44.568068
- Title: Conservative Generator, Progressive Discriminator: Coordination of
Adversaries in Few-shot Incremental Image Synthesis
- Title(参考訳): プログレッシブ・ディクリミネータ・保守型ジェネレータ:数ショットインクリメンタル画像合成におけるアドバイザのコーディネート
- Authors: Chaerin Kong and Nojun Kwak
- Abstract要約: 生成段階的な数ショット学習の課題について検討する。
本稿では,GANの2プレーヤの性質を活用するConProという新しいフレームワークを提案する。
本研究は,ConProの有効性を検証する実験である。
- 参考スコア(独自算出の注目度): 34.27851973031995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The capacity to learn incrementally from an online stream of data is an
envied trait of human learners, as deep neural networks typically suffer from
catastrophic forgetting and stability-plasticity dilemma. Several works have
previously explored incremental few-shot learning, a task with greater
challenges due to data constraint, mostly in classification setting with mild
success. In this work, we study the underrepresented task of generative
incremental few-shot learning. To effectively handle the inherent challenges of
incremental learning and few-shot learning, we propose a novel framework named
ConPro that leverages the two-player nature of GANs. Specifically, we design a
conservative generator that preserves past knowledge in parameter and compute
efficient manner, and a progressive discriminator that learns to reason
semantic distances between past and present task samples, minimizing
overfitting with few data points and pursuing good forward transfer. We present
experiments to validate the effectiveness of ConPro.
- Abstract(参考訳): オンラインデータストリームから漸進的に学習する能力は、深層ニューラルネットワークが破滅的な忘れ忘れと安定性の不安定性ジレンマに悩まされるという、人間の学習者の強い特徴である。
これまでいくつかの研究が、データ制約によるより大きな課題を伴うインクリメンタルな数ショット学習について検討してきた。
本研究では,生成的マイナショット学習の難解な課題について検討する。
インクリメンタル学習とマイナショット学習という本質的な課題を効果的に扱うために,gansの2人のプレイヤーを生かしたconproという新しいフレームワークを提案する。
具体的には,過去の知識をパラメータに保存し,効率的に計算する保守的生成器と,過去と現在のタスクサンプル間の意味的距離を推論し,少ないデータポイントでオーバーフィッティングを最小化し,良好なフォワード転送を追求するプログレッシブ判別器を設計する。
本稿では,ConProの有効性を検証する実験を行う。
関連論文リスト
- Reducing catastrophic forgetting of incremental learning in the absence of rehearsal memory with task-specific token [0.6144680854063939]
ディープラーニングモデルは、新しいデータを継続的に学習する際に破滅的な忘れを見せる。
本稿では,従来のデータを保存することなく,過去の知識を保存できる新しい手法を提案する。
この方法は視覚変換器のアーキテクチャにインスパイアされ、各タスクの圧縮された知識をカプセル化できるユニークなトークンを使用する。
論文 参考訳(メタデータ) (2024-11-06T16:13:50Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Look-Ahead Selective Plasticity for Continual Learning of Visual Tasks [9.82510084910641]
タスク境界において,タスクが終了し,他のタスク開始時に発生する新しいメカニズムを提案する。
CIFAR10やTinyImagenetなどのコンピュータビジョンデータセットのベンチマークで提案手法を評価する。
論文 参考訳(メタデータ) (2023-11-02T22:00:23Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Prototype-Sample Relation Distillation: Towards Replay-Free Continual
Learning [14.462797749666992]
本稿では,表現とクラスプロトタイプを共同で学習するための総合的なアプローチを提案する。
本稿では,新しいタスクデータと比較して,クラスプロトタイプの相対的類似性を維持することを制約する新しい蒸留損失を提案する。
この手法はタスクインクリメンタル設定における最先端性能を得る。
論文 参考訳(メタデータ) (2023-03-26T16:35:45Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - ErGAN: Generative Adversarial Networks for Entity Resolution [8.576633582363202]
学習ベースのエンティティ解決の大きな課題は、トレーニングのラベルコストを削減する方法です。
そこで本研究では,erganと呼ばれる新しい深層学習手法を提案する。
ErGANのラベリングと学習効率を実証的に検証するための広範な実験を実施しました。
論文 参考訳(メタデータ) (2020-12-18T01:33:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。