論文の概要: Efficient Conditional GAN Transfer with Knowledge Propagation across
Classes
- arxiv url: http://arxiv.org/abs/2102.06696v1
- Date: Fri, 12 Feb 2021 18:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 19:40:34.072856
- Title: Efficient Conditional GAN Transfer with Knowledge Propagation across
Classes
- Title(参考訳): クラス間の知識伝播による効率的な条件付きGAN転送
- Authors: Mohamad Shahbazi, Zhiwu Huang, Danda Pani Paudel, Ajad Chhatkuli, Luc
Van Gool
- Abstract要約: CGANは、無条件設定と比較して新しい知識移転の機会を提供します。
新しいクラスは、関連する古いクラスから知識を借りたり、トレーニングを改善するために知識を共有したりする。
新しいGAN転送手法は、古いクラスから新しいクラスへの知識を明示的に伝達する。
- 参考スコア(独自算出の注目度): 85.38369543858516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial networks (GANs) have shown impressive results in both
unconditional and conditional image generation. In recent literature, it is
shown that pre-trained GANs, on a different dataset, can be transferred to
improve the image generation from a small target data. The same, however, has
not been well-studied in the case of conditional GANs (cGANs), which provides
new opportunities for knowledge transfer compared to unconditional setup. In
particular, the new classes may borrow knowledge from the related old classes,
or share knowledge among themselves to improve the training. This motivates us
to study the problem of efficient conditional GAN transfer with knowledge
propagation across classes. To address this problem, we introduce a new GAN
transfer method to explicitly propagate the knowledge from the old classes to
the new classes. The key idea is to enforce the popularly used conditional
batch normalization (BN) to learn the class-specific information of the new
classes from that of the old classes, with implicit knowledge sharing among the
new ones. This allows for an efficient knowledge propagation from the old
classes to the new classes, with the BN parameters increasing linearly with the
number of new classes. The extensive evaluation demonstrates the clear
superiority of the proposed method over state-of-the-art competitors for
efficient conditional GAN transfer tasks. The code will be available at:
https://github.com/mshahbazi72/cGANTransfer
- Abstract(参考訳): GAN(Generative Adversarial Network)は,非条件画像生成と条件画像生成の両方において顕著な結果を示した。
近年の文献では、訓練済みのGANは、異なるデータセット上で、小さなターゲットデータから画像生成を改善するために転送可能であることが示されている。
しかし, 条件付きGAN(cGAN)では, 条件なしのセットアップに比べて, 知識伝達の新たな機会となることが確認されていない。
特に、新しいクラスは関連する古いクラスから知識を借りたり、トレーニングを改善するために知識を共有したりすることができる。
このことは、クラス間の知識伝播を伴う効率的な条件付きGAN転送の問題を研究する動機となっている。
この問題に対処するために,従来のクラスから新しいクラスへの知識を明示的に伝達する新しいGAN転送手法を提案する。
鍵となるアイデアは、広く使われている条件付きバッチ正規化(bn)を強制して、新しいクラスのクラス固有の情報を古いクラスから学び、新しいクラス間で暗黙の知識を共有することである。
これにより、古いクラスから新しいクラスへの効率的な知識伝達が可能になり、BNパラメータは新しいクラスの数と直線的に増加する。
提案手法は, 効率的な条件付きGAN転送タスクに対して, 最先端の競合相手よりも明らかに優れていることを示す。
コードは以下の通り。 https://github.com/mshahbazi72/cGANTransfer
関連論文リスト
- Multi-Granularity Regularized Re-Balancing for Class Incremental
Learning [32.52884416761171]
ディープラーニングモデルは、新しいタスクを学ぶときに破滅的な忘れに苦しむ。
古いクラスと新しいクラスのデータの不均衡は、モデルのパフォーマンスが低下する鍵となる問題である。
この問題を解決するために,仮定に依存しないマルチグラニュラリティ正規化再バランシング法を提案する。
論文 参考訳(メタデータ) (2022-06-30T11:04:51Z) - Mutual Information-guided Knowledge Transfer for Novel Class Discovery [23.772336970389834]
本稿では,目に見えるクラスと目に見えないクラス間で意味的知識を伝達する原理と一般的な手法を提案する。
提案手法は,いくつかのベンチマークにおいて,従来のSOTAよりも有意差があることが示唆された。
論文 参考訳(メタデータ) (2022-06-24T03:52:25Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Memory-Free Generative Replay For Class-Incremental Learning [32.39857105540859]
本研究では,メモリフリーな生成再生戦略を提案し,クラス特性の微粒化を抑える。
本手法は,従来のクラスを識別しやすくするために有効であることが証明された事前正規化に基づく手法によって最もよく補完される。
論文 参考訳(メタデータ) (2021-09-01T12:19:54Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。