論文の概要: FewGAN: Generating from the Joint Distribution of a Few Images
- arxiv url: http://arxiv.org/abs/2207.11226v1
- Date: Mon, 18 Jul 2022 07:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-31 14:14:34.534909
- Title: FewGAN: Generating from the Joint Distribution of a Few Images
- Title(参考訳): fewgan: いくつかの画像のジョイント分布から生成する
- Authors: Lior Ben-Moshe, Sagie Benaim, Lior Wolf
- Abstract要約: 本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
- 参考スコア(独自算出の注目度): 95.6635227371479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce FewGAN, a generative model for generating novel, high-quality
and diverse images whose patch distribution lies in the joint patch
distribution of a small number of N>1 training samples. The method is, in
essence, a hierarchical patch-GAN that applies quantization at the first coarse
scale, in a similar fashion to VQ-GAN, followed by a pyramid of residual fully
convolutional GANs at finer scales. Our key idea is to first use quantization
to learn a fixed set of patch embeddings for training images. We then use a
separate set of side images to model the structure of generated images using an
autoregressive model trained on the learned patch embeddings of training
images. Using quantization at the coarsest scale allows the model to generate
both conditional and unconditional novel images. Subsequently, a patch-GAN
renders the fine details, resulting in high-quality images. In an extensive set
of experiments, it is shown that FewGAN outperforms baselines both
quantitatively and qualitatively.
- Abstract(参考訳): 少数のN>1トレーニングサンプルのジョイントパッチ分布にパッチ分布がある新規で高品質で多様な画像を生成するための生成モデルであるFewGANを紹介した。
この方法は本質的には、第1の粗いスケールで量子化を適用する階層的パッチGANであり、VQ-GANと類似しており、その後、より微細なスケールで完全畳み込みGANのピラミッドが残る。
私たちの重要なアイデアは、まず量子化を使って、トレーニングイメージに対するパッチ埋め込みの固定セットを学ぶことです。
次に、学習した画像のパッチ埋め込みに基づいて訓練された自己回帰モデルを用いて、別個のサイドイメージを用いて生成画像の構造をモデル化する。
粗いスケールで量子化を使用することで、モデルは条件付きと非条件付きの両方の新規画像を生成することができる。
その後、パッチGANが細部を描画し、高品質な画像を生成する。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
関連論文リスト
- Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - DEff-GAN: Diverse Attribute Transfer for Few-Shot Image Synthesis [0.38073142980733]
我々は、サンプル合成のための複数の画像をモデル化するために、単一画像GAN法を拡張した。
我々のデータ効率GAN(DEff-GAN)は、入力画像やクラス間で類似性や対応性を引き出すことができる場合に優れた結果をもたらす。
論文 参考訳(メタデータ) (2023-02-28T12:43:52Z) - Generative Modeling in Structural-Hankel Domain for Color Image
Inpainting [17.04134647990754]
本研究は,カラー画像インペイント作業のための低ランク構造型ハンケル行列支援スコアベース生成モデル(SHGM)を構築することを目的とする。
実験の結果,SHGMの顕著な性能と多様性が示された。
論文 参考訳(メタデータ) (2022-11-25T01:56:17Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。