論文の概要: Piggyback GAN: Efficient Lifelong Learning for Image Conditioned
Generation
- arxiv url: http://arxiv.org/abs/2104.11939v1
- Date: Sat, 24 Apr 2021 12:09:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:40:28.934396
- Title: Piggyback GAN: Efficient Lifelong Learning for Image Conditioned
Generation
- Title(参考訳): Piggyback GAN:イメージコンディショニングのための効率的な生涯学習
- Authors: Mengyao Zhai, Lei Chen, Jiawei He, Megha Nawhal, Frederick Tung, Greg
Mori
- Abstract要約: コンボリューションフィルタとデコンボリューションフィルタのセットを構築することで,現在のタスクを学習するパラメータ効率の高いフレームワークであるPiggyback GANを提案する。
現在のタスクでは,本モデルでは,パラメータ数が低いスタンドアロンモデルと同等の高次品質を実現している。
異なるドメインのさまざまな画像コンディショニング生成タスクで Piggyback GAN を検証します。
- 参考スコア(独自算出の注目度): 48.31909975623379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans accumulate knowledge in a lifelong fashion. Modern deep neural
networks, on the other hand, are susceptible to catastrophic forgetting: when
adapted to perform new tasks, they often fail to preserve their performance on
previously learned tasks. Given a sequence of tasks, a naive approach
addressing catastrophic forgetting is to train a separate standalone model for
each task, which scales the total number of parameters drastically without
efficiently utilizing previous models. In contrast, we propose a parameter
efficient framework, Piggyback GAN, which learns the current task by building a
set of convolutional and deconvolutional filters that are factorized into
filters of the models trained on previous tasks. For the current task, our
model achieves high generation quality on par with a standalone model at a
lower number of parameters. For previous tasks, our model can also preserve
generation quality since the filters for previous tasks are not altered. We
validate Piggyback GAN on various image-conditioned generation tasks across
different domains, and provide qualitative and quantitative results to show
that the proposed approach can address catastrophic forgetting effectively and
efficiently.
- Abstract(参考訳): 人間は生涯を通じて知識を蓄積する。
一方、現代のディープニューラルネットワークは破滅的な忘れがちで、新しいタスクの実行に適応すると、前もって学習したタスクのパフォーマンスを維持できないことが多い。
タスクのシーケンスが与えられた場合、破滅的な忘れに対処する単純なアプローチは、各タスクに対して独立したスタンドアロンモデルをトレーニングすることである。
対照的に,従来のタスクでトレーニングされたモデルのフィルタに因果化される畳み込みフィルタとデコンボリューションフィルタのセットを構築することにより,現在のタスクを学習するパラメータ効率の高いフレームワーク piggyback gan を提案する。
現在のタスクでは,本モデルでは,パラメータ数が低いスタンドアロンモデルと同等の高次品質を実現している。
従来のタスクでは,従来のタスクのフィルタが変更されないため,生成品質も維持できる。
そこで我々はPiggyback GANを様々な領域にわたる画像条件付き生成タスクで検証し,定性的かつ定量的な結果を得るとともに,提案手法が破滅的忘れを効果的かつ効率的に解決できることを示す。
関連論文リスト
- Reward Incremental Learning in Text-to-Image Generation [26.64026346266299]
本稿では,計算オーバーヘッドを最小限に抑える方法であるReward Incremental Distillation(RID)を提案する。
実験結果から,RILシナリオにおける一貫した高次勾配生成の実現におけるRIDの有効性が示された。
論文 参考訳(メタデータ) (2024-11-26T10:54:33Z) - One-Shot Pruning for Fast-adapting Pre-trained Models on Devices [28.696989086706186]
大規模な事前訓練モデルが下流タスクの解決に成功している。
これらのモデルを低機能デバイスにデプロイするには、モデルプルーニングのような効果的なアプローチが必要である。
そこで本研究では,類似タスクの抽出知識を活用して,事前学習したモデルからサブネットワークを抽出する,スケーラブルなワンショットプルーニング手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T06:44:47Z) - Voting from Nearest Tasks: Meta-Vote Pruning of Pre-trained Models for
Downstream Tasks [55.431048995662714]
我々は、類似タスクの刈り取られたモデルから、新しいタスクのための小さなモデルを作成する。
このモデルに関するいくつかの微調整ステップは、新しいタスクに対して有望なプルーンドモデルを生成するのに十分であることを示す。
我々は, 単純だが効果的な'Meta-Vote Pruning (MVP)' 手法を開発した。
論文 参考訳(メタデータ) (2023-01-27T06:49:47Z) - Parameter-Efficient Image-to-Video Transfer Learning [66.82811235484607]
様々な下流タスクのための大規模な事前訓練されたモデルが、最近、有望なパフォーマンスで登場した。
モデルのサイズが拡大しているため、モデルトレーニングや記憶の面では、標準のフルチューニングベースのタスク適応戦略がコストがかかる。
本稿では,ビデオタスク毎のパラメータ効率の高い微調整のための新しいスペーシ・アダプタを提案する。
論文 参考訳(メタデータ) (2022-06-27T18:02:29Z) - muNet: Evolving Pretrained Deep Neural Networks into Scalable
Auto-tuning Multitask Systems [4.675744559395732]
今日の機械学習のほとんどの用途は、特定のタスクのスクラッチからモデルをトレーニングすることや、関連するタスクで事前訓練されたモデルから始めて、下流タスクで微調整することである。
本稿では、事前訓練されたディープニューラルネットワークの層をビルディングブロックとして利用し、任意のタスクを共同で解決できるMLシステムを構築する方法を提案する。
得られたシステムはクロスタスクの知識伝達を利用でき、破滅的な忘れ、勾配の干渉、負の伝達といったマルチタスクアプローチの共通の欠点に免疫を持つ。
論文 参考訳(メタデータ) (2022-05-22T21:54:33Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Efficient Continual Adaptation for Generative Adversarial Networks [97.20244383723853]
GAN(Generative Adversarial Network)に対する連続学習手法を提案する。
我々のアプローチは、グローバルパラメータとタスク固有のパラメータのセットを学習することに基づいている。
機能マップ変換に基づくアプローチは,最先端のgans手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-06T05:09:37Z) - Conditional Channel Gated Networks for Task-Aware Continual Learning [44.894710899300435]
畳み込みニューラルネットワークは、一連の学習問題に最適化された場合、破滅的な忘れを経験する。
本稿では,この問題に条件付き計算で対処する新しい枠組みを提案する。
提案手法を4つの連続学習データセットで検証する。
論文 参考訳(メタデータ) (2020-03-31T19:35:07Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。