論文の概要: Local Padding in Patch-Based GANs for Seamless Infinite-Sized Texture Synthesis
- arxiv url: http://arxiv.org/abs/2309.02340v4
- Date: Tue, 14 May 2024 12:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 19:50:31.148153
- Title: Local Padding in Patch-Based GANs for Seamless Infinite-Sized Texture Synthesis
- Title(参考訳): シームレス不定形集合組織合成のためのパッチベースGANの局所パディング
- Authors: Alhasan Abdellatif, Ahmed H. Elsheikh, Hannah Menke,
- Abstract要約: GANモデルを用いて,任意の大きさのテクスチャ画像を生成する手法を提案する。
モデルはゼロパディングの代わりに、生成したパッチ間のバウンダリ機能を共有するジェネレータ内のテキストローカルパディングを使用する。
提案手法は, 既存のテクスチャモデルを超えて, 生成したテクスチャの品質と多様性の観点から, 著しく進歩している。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Texture models based on Generative Adversarial Networks (GANs) use zero-padding to implicitly encode positional information of the image features. However, when extending the spatial input to generate images at large sizes, zero-padding can often lead to degradation of quality due to the incorrect positional information at the center of the image and limit the diversity within the generated images. In this paper, we propose a novel approach for generating stochastic texture images at large arbitrary sizes using GANs model that is based on patch-by-patch generation. Instead of zero-padding, the model uses \textit{local padding} in the generator that shares border features between the generated patches; providing positional context and ensuring consistency at the boundaries. The proposed models are trainable on a single texture image and have a constant GPU scalability with respect to the output image size, and hence can generate images of infinite sizes. We show in the experiments that our method has a significant advancement beyond existing texture models in terms of the quality and diversity of the generated textures. Furthermore, the implementation of local padding in the state-of-the-art super-resolution models effectively eliminates tiling artifacts enabling large-scale super-resolution. Our code is available at \url{https://github.com/ai4netzero/Infinite_Texture_GANs
- Abstract(参考訳): GAN(Generative Adversarial Networks)に基づくテクスチャモデルはゼロパディングを用いて画像特徴の位置情報を暗黙的にエンコードする。
しかし、空間入力を拡大して大きな画像を生成すると、画像の中心にある不正確な位置情報によって画質が劣化し、生成画像内の多様性が制限されることがしばしばある。
本稿では,パッチ・バイ・パッチ生成に基づくGANモデルを用いて,任意の大きさの確率的テクスチャ画像を生成する手法を提案する。
モデルはゼロパディングの代わりに、生成したパッチ間のバウンダリ特徴を共有するジェネレータで \textit{local padding} を使用し、位置コンテキストを提供し、バウンダリにおける一貫性を確保する。
提案したモデルは、単一のテクスチャイメージ上でトレーニング可能であり、出力画像サイズに関して一定のGPUスケーラビリティを有するため、無限の大きさの画像を生成することができる。
実験の結果,提案手法は既存のテクスチャモデルよりも,生成したテクスチャの品質と多様性の観点から大きく進歩していることがわかった。
さらに、最先端の超解像モデルにおける局所パディングの実装は、大規模超解像を可能にするタイリングアーティファクトを効果的に排除する。
私たちのコードは、 \url{https://github.com/ai4netzero/Infinite_Texture_GANsで利用可能です。
関連論文リスト
- $\infty$-Brush: Controllable Large Image Synthesis with Diffusion Models in Infinite Dimensions [58.42011190989414]
無限次元における新しい条件拡散モデル、制御可能な大画像合成のための$infty$-Brushを導入する。
我々の知る限り、$infty$-Brushは関数空間における最初の条件拡散モデルであり、最大4096times4096$ピクセルの任意の解像度で画像を制御できる。
論文 参考訳(メタデータ) (2024-07-20T00:04:49Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - LayoutLLM-T2I: Eliciting Layout Guidance from LLM for Text-to-Image
Generation [121.45667242282721]
レイアウト計画と画像生成を実現するための粗大なパラダイムを提案する。
提案手法は,フォトリアリスティックなレイアウトと画像生成の観点から,最先端のモデルよりも優れている。
論文 参考訳(メタデータ) (2023-08-09T17:45:04Z) - Delving Globally into Texture and Structure for Image Inpainting [20.954875933730808]
画像の塗布は目覚ましい進歩を遂げ、豊富な手法にインスピレーションを与え、重要なボトルネックは、マスキング領域における高周波構造と低周波テクスチャ情報のセマンティクスを満たす方法として特定される。
本稿では,テクスチャと構造情報を世界規模で探索し,画像インペイントのセマンティクスをうまく把握する。
我々のモデルは、テクスチャと構造情報の観点から、コナールニューラルネットワーク(CNN)やアテンション、トランスフォーマーモデルといったファッショナブルな芸術への進化である。
論文 参考訳(メタデータ) (2022-09-17T02:19:26Z) - TGHop: An Explainable, Efficient and Lightweight Method for Texture
Generation [28.185787626054704]
この研究でTGHop(Texture Generation PixelHopの頭字語)が提案されている。
TGHopはモデルサイズが小さく、数学的に透明であり、トレーニングや推論で効率的であり、高品質なテクスチャを生成することができる。
実験結果から,TGHopはモデルサイズが小さく,高速で高品質なテクスチャ画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2021-07-08T17:56:58Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Texture Transform Attention for Realistic Image Inpainting [6.275013056564918]
本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
論文 参考訳(メタデータ) (2020-12-08T06:28:51Z) - Texture Memory-Augmented Deep Patch-Based Image Inpainting [121.41395272974611]
本研究では,未成熟領域から抽出したパッチサンプルのテクスチャメモリによってテクスチャ生成をガイドする,新しいディープ・インペイント・フレームワークを提案する。
このフレームワークは、テクスチャメモリの検索を、ディープ・インパインティング・ネットワークでエンドツーエンドにトレーニングできる新しい設計である。
提案手法は,3つの課題の画像ベンチマークにおいて,質的かつ定量的に優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-28T12:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。