論文の概要: Towards Universal Texture Synthesis by Combining Texton Broadcasting
with Noise Injection in StyleGAN-2
- arxiv url: http://arxiv.org/abs/2203.04221v1
- Date: Tue, 8 Mar 2022 17:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 16:51:18.428305
- Title: Towards Universal Texture Synthesis by Combining Texton Broadcasting
with Noise Injection in StyleGAN-2
- Title(参考訳): stylegan-2におけるテキスト放送とノイズインジェクションを組み合わせたユニバーサルテクスチャ合成に向けて
- Authors: Jue Lin, Gaurav Sharma, Thrasyvoulos N. Pappas
- Abstract要約: 本稿では,StyleGAN-2フレームワークのマルチスケールテキスト放送モジュールを取り入れた汎用テクスチャ合成手法を提案する。
テキスト放送モジュールは誘導バイアスを導入し、通常の構造を持つものから完全なものまで幅広いテクスチャを生成できる。
- 参考スコア(独自算出の注目度): 11.67779950826776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new approach for universal texture synthesis by incorporating a
multi-scale texton broadcasting module in the StyleGAN-2 framework. The texton
broadcasting module introduces an inductive bias, enabling generation of
broader range of textures, from those with regular structures to completely
stochastic ones. To train and evaluate the proposed approach, we construct a
comprehensive high-resolution dataset that captures the diversity of natural
textures as well as stochastic variations within each perceptually uniform
texture. Experimental results demonstrate that the proposed approach yields
significantly better quality textures than the state of the art. The ultimate
goal of this work is a comprehensive understanding of texture space.
- Abstract(参考訳): 本稿では,StyleGAN-2フレームワークにマルチスケールのテキスト配信モジュールを組み込むことにより,汎用テクスチャ合成のための新しいアプローチを提案する。
テキスト放送モジュールは誘導バイアスを導入し、通常の構造を持つものから完全に確率的なものまで幅広いテクスチャを生成できる。
提案手法を訓練し,評価するために,自然テクスチャの多様性と知覚的に均一なテクスチャの確率的変化をキャプチャする包括的高分解能データセットを構築した。
実験の結果,提案手法は芸術の質よりも質の高いテクスチャが得られることがわかった。
この研究の最終的な目標は、テクスチャ空間の包括的理解である。
関連論文リスト
- Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - ConTex-Human: Free-View Rendering of Human from a Single Image with
Texture-Consistent Synthesis [49.28239918969784]
テクスチャに一貫性のあるバックビュー合成モジュールを導入し、参照画像コンテンツをバックビューに転送する。
また、テクスチャマッピングとリファインメントのための可視性対応パッチ整合性正規化と、合成したバックビューテクスチャの組み合わせを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:55:53Z) - Pyramid Texture Filtering [86.15126028139736]
目立った構造を保ちながらテクスチャをスムーズにするための,シンプルだが効果的な手法を提案する。
ガウスピラミッドの粗いレベルは、しばしば自然にテクスチャを排除し、主要な画像構造を要約する。
本手法は, 異なるスケール, 局所的なコントラスト, 形状のテクスチャから構造を分離する上で, 構造劣化や視覚的アーティファクトの導入を伴わずに有効であることを示す。
論文 参考訳(メタデータ) (2023-05-11T02:05:30Z) - Texture Representation via Analysis and Synthesis with Generative
Adversarial Networks [11.67779950826776]
本稿では,データ駆動型テクスチャモデリングを生成合成を用いた解析と合成により検討する。
合成にStyleGAN3を採用し、トレーニングデータに表される以上の多様なテクスチャを生成することを示した。
テクスチャ解析のために,合成テクスチャに対する新しい遅延整合性基準と,実際のテクスチャに対するグラミアンロスによる反復的改善を用いたGANを提案する。
論文 参考訳(メタデータ) (2022-12-20T03:57:11Z) - Paying U-Attention to Textures: Multi-Stage Hourglass Vision Transformer for Universal Texture Synthesis [2.8998926117101367]
ユニバーサルテクスチャ合成のための新しいU-Attention Vision Transformerを提案する。
注意機構によって実現された自然の長距離依存性を利用して,多様なテクスチャを合成する手法を提案する。
本研究では,グローバルな構造に参画し,様々なスケールでパッチマッピングを行う階層型時計バックボーンを提案する。
論文 参考訳(メタデータ) (2022-02-23T18:58:56Z) - Texture Reformer: Towards Fast and Universal Interactive Texture
Transfer [16.41438144343516]
テクスチャレコーダは、ユーザー特定ガイダンスを用いたインタラクティブなテクスチャ転送のためのニューラルネットワークベースのフレームワークである。
本稿では,新しいセマンティックマップ誘導戦略を取り入れた,学習不要なビュー固有テクスチャ修正(VSTR)操作を提案する。
様々なアプリケーションシナリオに関する実験結果は、我々のフレームワークの有効性と優位性を示している。
論文 参考訳(メタデータ) (2021-12-06T05:20:43Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。