論文の概要: GenCo: Generative Co-training on Data-Limited Image Generation
- arxiv url: http://arxiv.org/abs/2110.01254v1
- Date: Mon, 4 Oct 2021 08:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:30:57.008374
- Title: GenCo: Generative Co-training on Data-Limited Image Generation
- Title(参考訳): genco:データ制限画像生成における生成的コトレーニング
- Authors: Kaiwen Cui, Jiaxing Huang, Zhipeng Luo, Gongjie Zhang, Fangneng Zhan,
Shijian Lu
- Abstract要約: 我々は,複数の相補的識別器を導入することで,識別器過適合問題を緩和する生成的協調学習ネットワークを設計する。
複数のベンチマークによる実験によると、GenCoは限られたトレーニングデータで優れた世代を達成している。
- 参考スコア(独自算出の注目度): 41.45518513729391
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Training effective Generative Adversarial Networks (GANs) requires large
amounts of training data, without which the trained models are usually
sub-optimal with discriminator over-fitting. Several prior studies address this
issue by expanding the distribution of the limited training data via massive
and hand-crafted data augmentation. We handle data-limited image generation
from a very different perspective. Specifically, we design GenCo, a Generative
Co-training network that mitigates the discriminator over-fitting issue by
introducing multiple complementary discriminators that provide diverse
supervision from multiple distinctive views in training. We instantiate the
idea of GenCo in two ways. The first way is Weight-Discrepancy Co-training
(WeCo) which co-trains multiple distinctive discriminators by diversifying
their parameters. The second way is Data-Discrepancy Co-training (DaCo) which
achieves co-training by feeding discriminators with different views of the
input images (e.g., different frequency components of the input images).
Extensive experiments over multiple benchmarks show that GenCo achieves
superior generation with limited training data. In addition, GenCo also
complements the augmentation approach with consistent and clear performance
gains when combined.
- Abstract(参考訳): 効果的な生成型adversarial network(gans)のトレーニングには大量のトレーニングデータが必要である。
いくつかの先行研究は、大規模および手作りのデータ拡張を通じて限られたトレーニングデータの分布を拡大することでこの問題に対処している。
非常に異なる視点からデータ制限された画像生成を処理します。
具体的には,複数の相補的識別器を導入することで,識別器過適合問題を緩和する生成的協調学習ネットワークGenCoを設計する。
我々はGenCoのアイデアを2つの方法でインスタンス化する。
第一の方法は、重量差別共訓練(weco:weight-discrepancy co-training)である。
第二の方法はデータ分離共訓練(daco)であり、入力画像の異なるビュー(例えば、入力画像の周波数成分)で識別子を供給することにより共訓練を実現する。
複数のベンチマークに対する大規模な実験は、GenCoが限られたトレーニングデータで優れた世代を達成していることを示している。
さらにgencoは、一貫性と明確なパフォーマンス向上を組み合わせることで、拡張アプローチを補完する。
関連論文リスト
- Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - MCL-GAN: Generative Adversarial Networks with Multiple Specialized Discriminators [47.19216713803009]
本稿では,複数の識別器を用いた生成対向ネットワークの枠組みを提案する。
データ全体のサブセットに専門知識を持つように、各差別者を指導します。
複数の識別器を使用するにもかかわらず、バックボーンネットワークは識別器間で共有される。
論文 参考訳(メタデータ) (2021-07-15T11:35:08Z) - Cooperative Training and Latent Space Data Augmentation for Robust
Medical Image Segmentation [13.017279828963444]
ディープラーニングベースのセグメンテーションメソッドは、デプロイメント中に予期せぬデータ分散シフトに対して脆弱である。
本稿では,画像セグメンテーションモデルをトレーニングするための協調的なフレームワークと,ハードサンプルを生成するための潜在空間拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-02T13:39:13Z) - Data-Efficient Instance Generation from Instance Discrimination [40.71055888512495]
本稿では,インスタンス識別に基づくデータ効率の高いインスタンス生成手法を提案する。
本研究では,インスタンス識別に基づくデータ効率の高いインスタンス生成(InsGen)手法を提案する。
論文 参考訳(メタデータ) (2021-06-08T17:52:59Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - Data-Free Knowledge Amalgamation via Group-Stack Dual-GAN [80.17705319689139]
複数のシングルタスク/マルチタスクの教師から,多タスクの学生ネットワークを構築するために,データフリーな知識アマルガメート戦略を提案する。
トレーニングデータを持たない提案手法は, フル教師付き手法と比較して, 驚くほど競争力のある結果が得られる。
論文 参考訳(メタデータ) (2020-03-20T03:20:52Z) - Diversity Transfer Network for Few-Shot Learning [34.36438817417749]
本稿では,潜在多様性を既知のカテゴリから伝達する新たな生成フレームワークであるダイバーシティ・トランスファー・ネットワーク(DTN)を提案する。
DTNのメタトレーニングプロセスの安定化を図るために,既知のカテゴリに対して協調訓練を行う組織的な補助的タスクを提案する。
その結果,DTNは単段階学習とより高速な収束速度を持ち,特徴生成に基づく数ショット学習手法の最先端結果が得られることがわかった。
論文 参考訳(メタデータ) (2019-12-31T05:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。