論文の概要: F2GAN: Fusing-and-Filling GAN for Few-shot Image Generation
- arxiv url: http://arxiv.org/abs/2008.01999v2
- Date: Thu, 6 Aug 2020 04:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:20:48.506972
- Title: F2GAN: Fusing-and-Filling GAN for Few-shot Image Generation
- Title(参考訳): F2GAN:画像生成のためのFusing-and-Filling GAN
- Authors: Yan Hong, Li Niu, Jianfu Zhang, Weijie Zhao, Chen Fu, Liqing Zhang
- Abstract要約: 本稿ではF2GAN(Fusing-and-Filling Generative Adrial Network)を提案する。
我々の判別器は、損失を求めるモードと逆回帰損失を求めるモードにより、生成画像の多様性を確保することができる。
- 参考スコア(独自算出の注目度): 30.58721337843086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to generate images for a given category, existing deep generative
models generally rely on abundant training images. However, extensive data
acquisition is expensive and fast learning ability from limited data is
necessarily required in real-world applications. Also, these existing methods
are not well-suited for fast adaptation to a new category.
Few-shot image generation, aiming to generate images from only a few images
for a new category, has attracted some research interest. In this paper, we
propose a Fusing-and-Filling Generative Adversarial Network (F2GAN) to generate
realistic and diverse images for a new category with only a few images. In our
F2GAN, a fusion generator is designed to fuse the high-level features of
conditional images with random interpolation coefficients, and then fills in
attended low-level details with non-local attention module to produce a new
image. Moreover, our discriminator can ensure the diversity of generated images
by a mode seeking loss and an interpolation regression loss. Extensive
experiments on five datasets demonstrate the effectiveness of our proposed
method for few-shot image generation.
- Abstract(参考訳): 与えられたカテゴリの画像を生成するために、既存の深層生成モデルは一般に豊富な訓練画像に依存している。
しかし、大規模なデータ取得は高価であり、実際のアプリケーションでは限られたデータから高速な学習能力が必要である。
また、これらの既存手法は新しいカテゴリーへの高速適応には適していない。
新しいカテゴリの少数の画像から画像を生成することを目的とした画像生成は、いくつかの研究の関心を集めている。
本稿では,F2GAN(Fusing-and-Filling Generative Adversarial Network)を提案する。
f2ganでは,条件付き画像の高レベルな特徴とランダムな補間係数を融合し,従属する低レベル細部を非局所的注意モジュールで満たし,新たな画像を生成するよう設計した。
さらに,識別器は,損失を求めるモードと補間回帰損失によって生成画像の多様性を確保することができる。
5つのデータセットに対する大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - GeNIe: Generative Hard Negative Images Through Diffusion [16.619150568764262]
生成AIの最近の進歩により、自然画像に似たデータを生成する、より洗練された拡張技術が実現された。
本稿では,テキストプロンプトに条件付き潜伏拡散モデルを利用した新しい拡張手法であるGeNIeを紹介する。
本実験は,本手法の有効性と先行技術よりも優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-12-05T07:34:30Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Local and Global GANs with Semantic-Aware Upsampling for Image
Generation [201.39323496042527]
ローカルコンテキストを用いて画像を生成することを検討する。
セマンティックマップをガイダンスとして用いたクラス固有の生成ネットワークを提案する。
最後に,セマンティック・アウェア・アップサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T19:24:25Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - MatchingGAN: Matching-based Few-shot Image Generation [27.570773346794613]
マッチングに基づくGAN(Generative Adversarial Network)を提案する。
マッチングジェネレータは、同じカテゴリのいくつかの条件付き画像とランダムベクトルを一致させることができる。
本発明のマッチング判別器は、生成された画像の特徴と条件付き画像の融合特徴とをマッチングすることにより、従来のGAN識別器を拡張している。
論文 参考訳(メタデータ) (2020-03-07T03:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。