論文の概要: Texturize a GAN Using a Single Image
- arxiv url: http://arxiv.org/abs/2302.10600v1
- Date: Tue, 21 Feb 2023 11:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:28:31.369389
- Title: Texturize a GAN Using a Single Image
- Title(参考訳): 単一画像を用いたGANのテクスチャ化
- Authors: Pengda Xiang, Sitao Xiang, Yajie Zhao
- Abstract要約: 本稿では,GANを1つの参照画像に適応させる手法を提案し,その画像に類似したテクスチャを持つ画像を生成する。
具体的には,事前学習したGANモデルの重みを,利用者が提示した参照画像に導かれるように修正する。
実験の結果,提案手法は,GANの出力を画像のテクスチャと一致させるとともに,多様性とリアリズムを維持することができることがわかった。
- 参考スコア(独自算出の注目度): 8.614974446483528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can we customize a deep generative model which can generate images that can
match the texture of some given image? When you see an image of a church, you
may wonder if you can get similar pictures for that church. Here we present a
method, for adapting GANs with one reference image, and then we can generate
images that have similar textures to the given image. Specifically, we modify
the weights of the pre-trained GAN model, guided by the reference image given
by the user. We use a patch discriminator adversarial loss to encourage the
output of the model to match the texture on the given image, also we use a
laplacian adversarial loss to ensure diversity and realism, and alleviate the
contradiction between the two losses. Experiments show that the proposed method
can make the outputs of GANs match the texture of the given image as well as
keep diversity and realism.
- Abstract(参考訳): ある画像のテクスチャにマッチする画像を生成することができる、深い生成モデルをカスタマイズできるだろうか?
教会のイメージを見ると、その教会に似たような写真が撮れるかどうか疑問に思うかもしれません。
本稿では,GANを1つの参照画像に適応させる手法を提案し,その画像に類似したテクスチャを持つ画像を生成する。
具体的には,事前学習したGANモデルの重みを,利用者が提示した参照画像でガイドする。
画像上のテクスチャにマッチするモデル出力を促進するために,パッチ識別器の逆方向損失を用いるとともに,ラプラシアの逆方向損失を用いて多様性とリアリズムを保証し,この2つの損失の矛盾を緩和する。
実験の結果,提案手法は,GANの出力を画像のテクスチャと一致させるとともに,多様性とリアリズムを維持することができることがわかった。
関連論文リスト
- Conditional Diffusion on Web-Scale Image Pairs leads to Diverse Image Variations [32.892042877725125]
現在の画像変化技術では、同じ画像に条件付けされた入力画像の再構成にテキスト・ツー・イメージ・モデルを適用する。
凍結した埋め込み画像から入力画像の再構成を訓練した拡散モデルにより,小さなバリエーションで画像の再構成が可能であることを示す。
本稿では,画像ペアの集合を用いて画像の変動を生成するための事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T17:58:03Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - RepMix: Representation Mixing for Robust Attribution of Synthesized
Images [15.698564265127432]
本稿では,その意味的内容に不変なイメージをマッチングできるソリューションを提案する。
次に,表現混合と新たな損失に基づくGANフィンガープリント技術であるRepMixを提案する。
提案手法は,意味的一般化とロバスト性の両方において,既存のGANフィンガープリント作業から大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2022-07-05T14:14:06Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - ReGO: Reference-Guided Outpainting for Scenery Image [82.21559299694555]
生成的敵対学習は、与えられた画像に対して意味的一貫したコンテンツを生成することによって、画像の画質を向上した。
本研究は, 近隣の画素を借用することにより, テクスチャに富んだ結果を合成する原理について検討する。
生成した部品のスタイルが参照画像の影響を受けないようにするために,ReGOを増強し,スタイル一貫性のある結果を合成するスタイルランキングの損失が提案されている。
論文 参考訳(メタデータ) (2021-06-20T02:34:55Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Structural-analogy from a Single Image Pair [118.61885732829117]
本稿では,1対の画像A,Bのみを用いて,ニューラルネットワークによる画像構造理解能力について検討する。
我々は、B の外観とスタイルを保持するが、A に対応する構造的配置を持つ画像を生成する。
提案手法は,画像AとBのみを利用した条件生成タスクにおいて,高品質な画像を生成するために利用できる。
論文 参考訳(メタデータ) (2020-04-05T14:51:10Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。