論文の概要: Generating Infinite-Size Textures using GANs with Patch-by-Patch
Paradigm
- arxiv url: http://arxiv.org/abs/2309.02340v3
- Date: Sun, 10 Dec 2023 15:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 01:48:16.908911
- Title: Generating Infinite-Size Textures using GANs with Patch-by-Patch
Paradigm
- Title(参考訳): パッチバイパッチパラダイムによるganを用いた無限サイズのテクスチャ生成
- Authors: Alhasan Abdellatif and Ahmed H. Elsheikh
- Abstract要約: GAN(Generative Adversarial Networks)を用いた無限サイズのテクスチャ画像生成手法を提案する。
提案手法は,単一のテクスチャ画像上にGANモデルをトレーニングし,局所的に相関し,より大きな画像を形成するためにシームレスに生成できる比較的小さなパッチを生成する。
トレーニングされたモデルは、局所的なテクスチャ構造を学び、任意のサイズの画像を生成すると同時に、一貫性と多様性を維持します。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a novel approach for generating texture images of
infinite sizes using Generative Adversarial Networks (GANs) based on a
patch-by-patch paradigm. Existing texture synthesis techniques rely on
generating large-scale textures using a single forward pass to the generative
model; this approach limits the scalability and flexibility of the images
produced. In contrast, the proposed approach trains a GAN model on a single
texture image to generate relatively small-size patches that are locally
correlated and can be seamlessly concatenated to form a larger image. The
method relies on local padding in the generator to ensure consistency between
the generated patches. It also utilizes spatial stochastic modulation to allow
for local variations and improve patterns alignment in the large-scale image.
The trained models learn the local texture structure and are able to generate
images of arbitrary sizes, while also maintaining the coherence and diversity.
Experimental results demonstrate constant GPU scalability with respect to the
generated image size compared to existing approaches that exhibit a
proportional growth in GPU memory.
- Abstract(参考訳): 本稿では,パッチ・バイ・パッチ・パラダイムに基づくGAN(Generative Adversarial Networks)を用いて,無限サイズのテクスチャ画像を生成する手法を提案する。
既存のテクスチャ合成技術は、生成モデルへの単一のフォワードパスを使用して、大規模なテクスチャを生成することに依存している。
対照的に、提案手法は単一のテクスチャイメージ上にGANモデルをトレーニングし、局所的に相関し、より大きな画像を形成するためにシームレスに結合できる比較的小さなパッチを生成する。
このメソッドはジェネレータのローカルパディングに依存し、生成されたパッチ間の一貫性を保証する。
また、空間確率変調を利用して局所的な変動を可能にし、大規模画像のパターンアライメントを改善する。
トレーニングされたモデルは、局所的なテクスチャ構造を学び、任意のサイズの画像を生成すると同時に、一貫性と多様性を維持します。
実験結果は、GPUメモリの比例的な成長を示す既存のアプローチと比較して、生成した画像サイズに対して一定のGPUスケーラビリティを示す。
関連論文リスト
- $\infty$-Brush: Controllable Large Image Synthesis with Diffusion Models in Infinite Dimensions [58.42011190989414]
無限次元における新しい条件拡散モデル、制御可能な大画像合成のための$infty$-Brushを導入する。
我々の知る限り、$infty$-Brushは関数空間における最初の条件拡散モデルであり、最大4096times4096$ピクセルの任意の解像度で画像を制御できる。
論文 参考訳(メタデータ) (2024-07-20T00:04:49Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - LayoutLLM-T2I: Eliciting Layout Guidance from LLM for Text-to-Image
Generation [121.45667242282721]
レイアウト計画と画像生成を実現するための粗大なパラダイムを提案する。
提案手法は,フォトリアリスティックなレイアウトと画像生成の観点から,最先端のモデルよりも優れている。
論文 参考訳(メタデータ) (2023-08-09T17:45:04Z) - Delving Globally into Texture and Structure for Image Inpainting [20.954875933730808]
画像の塗布は目覚ましい進歩を遂げ、豊富な手法にインスピレーションを与え、重要なボトルネックは、マスキング領域における高周波構造と低周波テクスチャ情報のセマンティクスを満たす方法として特定される。
本稿では,テクスチャと構造情報を世界規模で探索し,画像インペイントのセマンティクスをうまく把握する。
我々のモデルは、テクスチャと構造情報の観点から、コナールニューラルネットワーク(CNN)やアテンション、トランスフォーマーモデルといったファッショナブルな芸術への進化である。
論文 参考訳(メタデータ) (2022-09-17T02:19:26Z) - TGHop: An Explainable, Efficient and Lightweight Method for Texture
Generation [28.185787626054704]
この研究でTGHop(Texture Generation PixelHopの頭字語)が提案されている。
TGHopはモデルサイズが小さく、数学的に透明であり、トレーニングや推論で効率的であり、高品質なテクスチャを生成することができる。
実験結果から,TGHopはモデルサイズが小さく,高速で高品質なテクスチャ画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2021-07-08T17:56:58Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Texture Transform Attention for Realistic Image Inpainting [6.275013056564918]
本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
論文 参考訳(メタデータ) (2020-12-08T06:28:51Z) - Texture Memory-Augmented Deep Patch-Based Image Inpainting [121.41395272974611]
本研究では,未成熟領域から抽出したパッチサンプルのテクスチャメモリによってテクスチャ生成をガイドする,新しいディープ・インペイント・フレームワークを提案する。
このフレームワークは、テクスチャメモリの検索を、ディープ・インパインティング・ネットワークでエンドツーエンドにトレーニングできる新しい設計である。
提案手法は,3つの課題の画像ベンチマークにおいて,質的かつ定量的に優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-28T12:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。