論文の概要: SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps
- arxiv url: http://arxiv.org/abs/2201.05120v1
- Date: Thu, 13 Jan 2022 18:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 14:01:09.354350
- Title: SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps
- Title(参考訳): seamlessgan: タイル可能なテクスチャマップの自己教師あり合成
- Authors: Carlos Rodriguez-Pardo and Elena Garces
- Abstract要約: 単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題にのみ焦点をあてた既存の方法とは対照的に,本研究は合成性とタイル性の両方に同時に取り組む。
- 参考スコア(独自算出の注目度): 3.504542161036043
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present SeamlessGAN, a method capable of automatically generating tileable
texture maps from a single input exemplar. In contrast to most existing
methods, focused solely on solving the synthesis problem, our work tackles both
problems, synthesis and tileability, simultaneously. Our key idea is to realize
that tiling a latent space within a generative network trained using
adversarial expansion techniques produces outputs with continuity at the seam
intersection that can be then be turned into tileable images by cropping the
central area. Since not every value of the latent space is valid to produce
high-quality outputs, we leverage the discriminator as a perceptual error
metric capable of identifying artifact-free textures during a sampling process.
Further, in contrast to previous work on deep texture synthesis, our model is
designed and optimized to work with multi-layered texture representations,
enabling textures composed of multiple maps such as albedo, normals, etc. We
extensively test our design choices for the network architecture, loss function
and sampling parameters. We show qualitatively and quantitatively that our
approach outperforms previous methods and works for textures of different
types.
- Abstract(参考訳): 単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題のみに焦点をあてた既存の手法と対照的に,本研究は問題,合成,タイル性の両方を同時に取り組んでいる。
我々のキーとなる考え方は、敵対的展開技術を用いて訓練された生成ネットワーク内で潜伏空間をタイリングすることで、海面交差点で連続して出力を生成し、中央領域を収穫することでタイル状画像にすることができることである。
遅延空間のすべての値が高品質な出力を生成するのに有効ではないので、サンプリングプロセス中に人工物のないテクスチャを識別できる知覚誤差計量として判別器を利用する。
さらに,先行研究である深層テクスチャ合成とは対照的に,多層テクスチャ表現を扱うように設計・最適化され,アルベドやノーマルなどの複数のマップからなるテクスチャが実現されている。
我々はネットワークアーキテクチャ、損失関数、サンプリングパラメータの設計選択を広範囲にテストした。
提案手法が従来の手法より優れており,異なるタイプのテクスチャに対して有効であることを示す。
関連論文リスト
- NeRF-Texture: Synthesizing Neural Radiance Field Textures [77.24205024987414]
与えられた多視点画像からテクスチャを捕捉・合成するためのニューラルレージアンス場(NeRF)を用いた新しいテクスチャ合成法を提案する。
提案したNeRFテクスチャ表現では、微細な幾何学的詳細を持つシーンをメソ構造テクスチャと基盤形状に分割する。
我々は潜伏特徴のパッチマッチングによってNeRFベースのテクスチャを合成できる。
論文 参考訳(メタデータ) (2024-12-13T09:41:48Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - GenesisTex: Adapting Image Denoising Diffusion to Texture Space [15.907134430301133]
GenesisTexはテキスト記述から3次元幾何学のテクスチャを合成する新しい手法である。
我々は,各視点に対して潜在テクスチャマップを保持し,対応する視点の描画に予測ノイズを伴って更新する。
大域的整合性は、ノイズ予測ネットワーク内のスタイル整合性機構の統合によって達成される。
論文 参考訳(メタデータ) (2024-03-26T15:15:15Z) - TexTile: A Differentiable Metric for Texture Tileability [10.684366243276198]
テクスチャ画像がそれ自身でベッドできる程度を定量化するための、新しい微分可能な計量であるTexTileを紹介する。
タイル状テクスチャ合成の既存の方法は、一般的なテクスチャの品質に焦点をあてるが、テクスチャの本質的な特性の明示的な分析は欠如している。
論文 参考訳(メタデータ) (2024-03-19T17:59:09Z) - Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - Diffusion-based Holistic Texture Rectification and Synthesis [26.144666226217062]
伝統的なテクスチャ合成アプローチは、原始サンプルからテクスチャを生成することに重点を置いている。
自然画像中の劣化サンプルから全体的テクスチャを合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-26T08:44:46Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Co-occurrence Based Texture Synthesis [25.4878061402506]
本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
論文 参考訳(メタデータ) (2020-05-17T08:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。