論文の概要: Generating Non-Stationary Textures using Self-Rectification
- arxiv url: http://arxiv.org/abs/2401.02847v2
- Date: Tue, 30 Jan 2024 10:32:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 18:17:49.877242
- Title: Generating Non-Stationary Textures using Self-Rectification
- Title(参考訳): 自己再現による非定常テクスチャの生成
- Authors: Yang Zhou, Rongjun Xiao, Dani Lischinski, Daniel Cohen-Or, Hui Huang
- Abstract要約: 本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
- 参考スコア(独自算出の注目度): 70.91414475376698
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper addresses the challenge of example-based non-stationary texture
synthesis. We introduce a novel twostep approach wherein users first modify a
reference texture using standard image editing tools, yielding an initial rough
target for the synthesis. Subsequently, our proposed method, termed
"self-rectification", automatically refines this target into a coherent,
seamless texture, while faithfully preserving the distinct visual
characteristics of the reference exemplar. Our method leverages a pre-trained
diffusion network, and uses self-attention mechanisms, to gradually align the
synthesized texture with the reference, ensuring the retention of the
structures in the provided target. Through experimental validation, our
approach exhibits exceptional proficiency in handling non-stationary textures,
demonstrating significant advancements in texture synthesis when compared to
existing state-of-the-art techniques. Code is available at
https://github.com/xiaorongjun000/Self-Rectification
- Abstract(参考訳): 本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正し,合成の初期目標を達成できる新しい2段階アプローチを提案する。
その後,提案手法は「自己再現化」と呼ばれ,その対象をコヒーレントでシームレスなテクスチャに自動精製し,参照例の視覚的特徴を忠実に保存する。
提案手法は,事前学習した拡散ネットワークを活用し,自己保持機構を用いて,合成したテクスチャを基準に徐々に整列させ,得られた対象構造を確実に保持する。
実験的な検証により,非定常テクスチャの処理に優れた技術を示し,既存の最先端技術と比較してテクスチャ合成の著しい進歩を示す。
コードはhttps://github.com/xiaorongjun000/Self-Rectificationで入手できる。
関連論文リスト
- RoCoTex: A Robust Method for Consistent Texture Synthesis with Diffusion Models [3.714901836138171]
メッシュに整合した一貫性とシームレスなテクスチャを生成するための頑健なテキスト・ツー・テクスチャ手法を提案する。
本手法では,SDXLや複数制御ネットなどの最先端2次元拡散モデルを用いて,構造的特徴を捉えるとともに,テクスチャの複雑な詳細を抽出する。
論文 参考訳(メタデータ) (2024-09-30T06:29:50Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - GenesisTex: Adapting Image Denoising Diffusion to Texture Space [15.907134430301133]
GenesisTexはテキスト記述から3次元幾何学のテクスチャを合成する新しい手法である。
我々は,各視点に対して潜在テクスチャマップを保持し,対応する視点の描画に予測ノイズを伴って更新する。
大域的整合性は、ノイズ予測ネットワーク内のスタイル整合性機構の統合によって達成される。
論文 参考訳(メタデータ) (2024-03-26T15:15:15Z) - TexTile: A Differentiable Metric for Texture Tileability [10.684366243276198]
テクスチャ画像がそれ自身でベッドできる程度を定量化するための、新しい微分可能な計量であるTexTileを紹介する。
タイル状テクスチャ合成の既存の方法は、一般的なテクスチャの品質に焦点をあてるが、テクスチャの本質的な特性の明示的な分析は欠如している。
論文 参考訳(メタデータ) (2024-03-19T17:59:09Z) - ConTex-Human: Free-View Rendering of Human from a Single Image with
Texture-Consistent Synthesis [49.28239918969784]
テクスチャに一貫性のあるバックビュー合成モジュールを導入し、参照画像コンテンツをバックビューに転送する。
また、テクスチャマッピングとリファインメントのための可視性対応パッチ整合性正規化と、合成したバックビューテクスチャの組み合わせを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:55:53Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps [3.504542161036043]
単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題にのみ焦点をあてた既存の方法とは対照的に,本研究は合成性とタイル性の両方に同時に取り組む。
論文 参考訳(メタデータ) (2022-01-13T18:24:26Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Co-occurrence Based Texture Synthesis [25.4878061402506]
本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
論文 参考訳(メタデータ) (2020-05-17T08:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。