論文の概要: SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps
- arxiv url: http://arxiv.org/abs/2201.05120v1
- Date: Thu, 13 Jan 2022 18:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 14:01:09.354350
- Title: SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps
- Title(参考訳): seamlessgan: タイル可能なテクスチャマップの自己教師あり合成
- Authors: Carlos Rodriguez-Pardo and Elena Garces
- Abstract要約: 単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題にのみ焦点をあてた既存の方法とは対照的に,本研究は合成性とタイル性の両方に同時に取り組む。
- 参考スコア(独自算出の注目度): 3.504542161036043
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present SeamlessGAN, a method capable of automatically generating tileable
texture maps from a single input exemplar. In contrast to most existing
methods, focused solely on solving the synthesis problem, our work tackles both
problems, synthesis and tileability, simultaneously. Our key idea is to realize
that tiling a latent space within a generative network trained using
adversarial expansion techniques produces outputs with continuity at the seam
intersection that can be then be turned into tileable images by cropping the
central area. Since not every value of the latent space is valid to produce
high-quality outputs, we leverage the discriminator as a perceptual error
metric capable of identifying artifact-free textures during a sampling process.
Further, in contrast to previous work on deep texture synthesis, our model is
designed and optimized to work with multi-layered texture representations,
enabling textures composed of multiple maps such as albedo, normals, etc. We
extensively test our design choices for the network architecture, loss function
and sampling parameters. We show qualitatively and quantitatively that our
approach outperforms previous methods and works for textures of different
types.
- Abstract(参考訳): 単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題のみに焦点をあてた既存の手法と対照的に,本研究は問題,合成,タイル性の両方を同時に取り組んでいる。
我々のキーとなる考え方は、敵対的展開技術を用いて訓練された生成ネットワーク内で潜伏空間をタイリングすることで、海面交差点で連続して出力を生成し、中央領域を収穫することでタイル状画像にすることができることである。
遅延空間のすべての値が高品質な出力を生成するのに有効ではないので、サンプリングプロセス中に人工物のないテクスチャを識別できる知覚誤差計量として判別器を利用する。
さらに,先行研究である深層テクスチャ合成とは対照的に,多層テクスチャ表現を扱うように設計・最適化され,アルベドやノーマルなどの複数のマップからなるテクスチャが実現されている。
我々はネットワークアーキテクチャ、損失関数、サンプリングパラメータの設計選択を広範囲にテストした。
提案手法が従来の手法より優れており,異なるタイプのテクスチャに対して有効であることを示す。
関連論文リスト
- ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map
Optimization and Physically-Based Rendering [53.70434741500702]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - Diffusion-based Holistic Texture Rectification and Synthesis [26.144666226217062]
伝統的なテクスチャ合成アプローチは、原始サンプルからテクスチャを生成することに重点を置いている。
自然画像中の劣化サンプルから全体的テクスチャを合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-26T08:44:46Z) - A geometrically aware auto-encoder for multi-texture synthesis [1.2891210250935146]
マルチテクスチャ合成のための自動エンコーダアーキテクチャを提案する。
画像はコンパクトで幾何学的に整合した潜在空間に埋め込まれる。
テクスチャ合成とタスクは、これらの潜在コードから直接実行することができる。
論文 参考訳(メタデータ) (2023-02-03T09:28:39Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - A Generative Model for Texture Synthesis based on Optimal Transport
between Feature Distributions [8.102785819558978]
任意の大きさの新しいテクスチャをオンザフライで合成できるフィードフォワードニューラルネットワークを、我々のフレームワークを使って学習する方法を示す。
我々のフレームワークを使ってフィードフォワードニューラルネットワークを学習し、任意のサイズの新しいテクスチャを高速に合成する方法を示します。
論文 参考訳(メタデータ) (2020-06-19T13:32:55Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Co-occurrence Based Texture Synthesis [25.4878061402506]
本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
論文 参考訳(メタデータ) (2020-05-17T08:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。