論文の概要: DeltaGAN: Towards Diverse Few-shot Image Generation with Sample-Specific
Delta
- arxiv url: http://arxiv.org/abs/2207.10271v1
- Date: Thu, 21 Jul 2022 02:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:56:53.508270
- Title: DeltaGAN: Towards Diverse Few-shot Image Generation with Sample-Specific
Delta
- Title(参考訳): DeltaGAN: サンプル差分画像生成に向けて
- Authors: Yan Hong, Li Niu, Jianfu Zhang, and Liqing Zhang
- Abstract要約: いくつかの最先端の作品は印象的な結果をもたらしたが、多様性はまだ限られている。
本稿では,再構成サブネットワークと生成サブネットワークからなるDelta Generative Adversarial Network (DeltaGAN)を提案する。
生成サブネットは、入力画像に対してサンプル固有デルタを生成し、この入力画像と組み合わせて、同一カテゴリ内で新しい画像を生成する。
- 参考スコア(独自算出の注目度): 25.23806538860418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to generate new images for a novel category based on only a few
images, named as few-shot image generation, has attracted increasing research
interest. Several state-of-the-art works have yielded impressive results, but
the diversity is still limited. In this work, we propose a novel Delta
Generative Adversarial Network (DeltaGAN), which consists of a reconstruction
subnetwork and a generation subnetwork. The reconstruction subnetwork captures
intra-category transformation, i.e., delta, between same-category pairs. The
generation subnetwork generates sample-specific delta for an input image, which
is combined with this input image to generate a new image within the same
category. Besides, an adversarial delta matching loss is designed to link the
above two subnetworks together. Extensive experiments on six benchmark datasets
demonstrate the effectiveness of our proposed method. Our code is available at
https://github.com/bcmi/DeltaGAN-Few-Shot-Image-Generation.
- Abstract(参考訳): 少数ショット画像生成と呼ばれる少数の画像に基づいて新しいカテゴリの新しい画像を生成する学習は、研究の関心が高まりつつある。
いくつかの最先端の作品は印象的な結果をもたらしたが、多様性はまだ限られている。
本研究では,再構成サブネットワークと生成サブネットワークからなるDelta Generative Adversarial Network (DeltaGAN)を提案する。
レコンストラクションサブネットワークは、カテゴリ内変換、すなわちデルタを同カテゴリペア間でキャプチャする。
生成サブネットは、入力画像に対してサンプル固有デルタを生成し、この入力画像と組み合わせて、同一カテゴリ内で新しい画像を生成する。
さらに、上記2つのサブネットを連結するように、逆デルタマッチング損失を設計する。
6つのベンチマークデータセットに対する大規模な実験により,提案手法の有効性が示された。
私たちのコードはhttps://github.com/bcmi/DeltaGAN-Few-Shot-Image-Generationで公開されています。
関連論文リスト
- Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - DivCo: Diverse Conditional Image Synthesis via Contrastive Generative
Adversarial Network [70.12848483302915]
cgans (conditional generative adversarial networks) は、入力条件と潜在コードに基づいて様々な画像をターゲットにしている。
最近のMSGANは、生成した画像の多様性を奨励しようとしたが、画像ペア間の"負の関係"しか考慮しなかった。
潜在空間で指定された生成画像間の「正」と「負」の関係を適切に拘束する新しいDivCoフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-14T11:11:15Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Random Network Distillation as a Diversity Metric for Both Image and
Text Generation [62.13444904851029]
我々は、どんな種類のデータにも、どんな種類のデータにも、自然にも適用できる新しい多様性指標を開発した。
私たちはこのメトリクスを画像とテキストの両方で検証し、デプロイします。
論文 参考訳(メタデータ) (2020-10-13T22:03:52Z) - DeltaGAN: Towards Diverse Few-shot Image Generation with Sample-Specific
Delta [27.002500048384366]
本稿では,再構成サブネットワークと生成サブネットワークからなるDelta Generative Adversarial Network (DeltaGAN)を提案する。
生成サブネットは、入力画像に対してサンプル固有のデルタを生成し、この入力画像と組み合わせて、同じカテゴリ内で新しい画像を生成する。
論文 参考訳(メタデータ) (2020-09-18T11:25:05Z) - F2GAN: Fusing-and-Filling GAN for Few-shot Image Generation [30.58721337843086]
本稿ではF2GAN(Fusing-and-Filling Generative Adrial Network)を提案する。
我々の判別器は、損失を求めるモードと逆回帰損失を求めるモードにより、生成画像の多様性を確保することができる。
論文 参考訳(メタデータ) (2020-08-05T08:47:42Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z) - CDGAN: Cyclic Discriminative Generative Adversarial Networks for
Image-to-Image Transformation [17.205434613674104]
我々はCDGAN(Cyclic Discriminative Generative Adversarial Networks)と呼ばれる新しい画像間変換ネットワークを導入する。
提案したCDGANは、サイクル画像に新たな識別器ネットワークを組み込むことにより、高品質でリアルな画像を生成する。
定量および定性的な結果を解析し、最先端の手法と比較する。
論文 参考訳(メタデータ) (2020-01-15T05:12:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。