論文の概要: Generating Infinite-Resolution Texture using GANs with Patch-by-Patch
Paradigm
- arxiv url: http://arxiv.org/abs/2309.02340v2
- Date: Thu, 16 Nov 2023 17:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 22:36:33.516718
- Title: Generating Infinite-Resolution Texture using GANs with Patch-by-Patch
Paradigm
- Title(参考訳): パッチバイパッチパラダイムによるganを用いた無限分解能テクスチャの生成
- Authors: Alhasan Abdellatif and Ahmed H. Elsheikh
- Abstract要約: GAN(Generative Adrial Networks)を用いた無限解像度のテクスチャ画像生成手法を提案する。
既存のテクスチャ合成技術は、しばしば、生成モデルへの一方向パスを用いた大規模なテクスチャの生成に依存している。
対照的に、提案手法では、単一のテクスチャイメージ上でGANモデルをトレーニングし、局所的に相関し、より大きな画像を形成するためにシームレスに反転できる比較的小さなパッチを生成する。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a novel approach for generating texture images of
infinite resolutions using Generative Adversarial Networks (GANs) based on a
patch-by-patch paradigm. Existing texture synthesis techniques often rely on
generating a large-scale texture using a one-forward pass to the generating
model, this limits the scalability and flexibility of the generated images. In
contrast, the proposed approach trains GANs models on a single texture image to
generate relatively small patches that are locally correlated and can be
seamlessly concatenated to form a larger image while using a constant GPU
memory footprint. Our method learns the local texture structure and is able to
generate arbitrary-size textures, while also maintaining coherence and
diversity. The proposed method relies on local padding in the generator to
ensure consistency between patches and utilizes spatial stochastic modulation
to allow for local variations and diversity within the large-scale image.
Experimental results demonstrate superior scalability compared to existing
approaches while maintaining visual coherence of generated textures.
- Abstract(参考訳): 本稿では,パッチ・バイ・パッチ・パラダイムに基づくGAN(Generative Adversarial Networks)を用いて,無限解像度のテクスチャ画像を生成する手法を提案する。
既存のテクスチャ合成技術では、生成モデルへのワンフォワードパスを使用して大規模なテクスチャを生成することが多いため、生成画像のスケーラビリティと柔軟性が制限される。
これとは対照的に、提案手法では、単一のテクスチャイメージ上のgansモデルをトレーニングして、ローカルに関連付けられ、シームレスに結合して大きなイメージを形成することができる比較的小さなパッチを生成する。
本手法は局所的なテクスチャ構造を学習し,任意のサイズのテクスチャを生成できると同時に,コヒーレンスや多様性も維持する。
提案手法は,パッチ間の一貫性を確保するためにジェネレータ内の局所パディングに依存し,空間的確率的変調を利用して大規模画像内の局所的な変動や多様性を実現する。
実験結果は,生成テクスチャの視覚的コヒーレンスを維持しつつ,既存のアプローチよりも優れたスケーラビリティを示す。
関連論文リスト
- $\infty$-Brush: Controllable Large Image Synthesis with Diffusion Models in Infinite Dimensions [58.42011190989414]
無限次元における新しい条件拡散モデル、制御可能な大画像合成のための$infty$-Brushを導入する。
我々の知る限り、$infty$-Brushは関数空間における最初の条件拡散モデルであり、最大4096times4096$ピクセルの任意の解像度で画像を制御できる。
論文 参考訳(メタデータ) (2024-07-20T00:04:49Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - LayoutLLM-T2I: Eliciting Layout Guidance from LLM for Text-to-Image
Generation [121.45667242282721]
レイアウト計画と画像生成を実現するための粗大なパラダイムを提案する。
提案手法は,フォトリアリスティックなレイアウトと画像生成の観点から,最先端のモデルよりも優れている。
論文 参考訳(メタデータ) (2023-08-09T17:45:04Z) - Delving Globally into Texture and Structure for Image Inpainting [20.954875933730808]
画像の塗布は目覚ましい進歩を遂げ、豊富な手法にインスピレーションを与え、重要なボトルネックは、マスキング領域における高周波構造と低周波テクスチャ情報のセマンティクスを満たす方法として特定される。
本稿では,テクスチャと構造情報を世界規模で探索し,画像インペイントのセマンティクスをうまく把握する。
我々のモデルは、テクスチャと構造情報の観点から、コナールニューラルネットワーク(CNN)やアテンション、トランスフォーマーモデルといったファッショナブルな芸術への進化である。
論文 参考訳(メタデータ) (2022-09-17T02:19:26Z) - TGHop: An Explainable, Efficient and Lightweight Method for Texture
Generation [28.185787626054704]
この研究でTGHop(Texture Generation PixelHopの頭字語)が提案されている。
TGHopはモデルサイズが小さく、数学的に透明であり、トレーニングや推論で効率的であり、高品質なテクスチャを生成することができる。
実験結果から,TGHopはモデルサイズが小さく,高速で高品質なテクスチャ画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2021-07-08T17:56:58Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Texture Transform Attention for Realistic Image Inpainting [6.275013056564918]
本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
論文 参考訳(メタデータ) (2020-12-08T06:28:51Z) - Texture Memory-Augmented Deep Patch-Based Image Inpainting [121.41395272974611]
本研究では,未成熟領域から抽出したパッチサンプルのテクスチャメモリによってテクスチャ生成をガイドする,新しいディープ・インペイント・フレームワークを提案する。
このフレームワークは、テクスチャメモリの検索を、ディープ・インパインティング・ネットワークでエンドツーエンドにトレーニングできる新しい設計である。
提案手法は,3つの課題の画像ベンチマークにおいて,質的かつ定量的に優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-28T12:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。