論文の概要: Enhancing Texture Generation with High-Fidelity Using Advanced Texture
Priors
- arxiv url: http://arxiv.org/abs/2403.05102v1
- Date: Fri, 8 Mar 2024 07:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:47:10.904237
- Title: Enhancing Texture Generation with High-Fidelity Using Advanced Texture
Priors
- Title(参考訳): 高度なテクスチャプリエントを用いた高忠実度テクスチャ生成の促進
- Authors: Kuo Xu, Maoyu Wang, Muyu Wang, Lincong Feng, Tianhui Zhang, Xiaoli Liu
- Abstract要約: 粗いテクスチャを初期入力として利用する高分解能で高忠実なテクスチャ復元手法を提案する。
また,現在の高分解能テクスチャ合成方式におけるノイズ問題に対処する自己教師型スキームに基づく背景雑音平滑化手法を提案する。
本手法により,高分解能なテクスチャ合成が可能となり,高精細テクスチャ合成技術への道が開かれた。
- 参考スコア(独自算出の注目度): 1.4542583614606408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advancements in 2D generation technology have sparked a widespread
discussion on using 2D priors for 3D shape and texture content generation.
However, these methods often overlook the subsequent user operations, such as
texture aliasing and blurring that occur when the user acquires the 3D model
and simplifies its structure. Traditional graphics methods partially alleviate
this issue, but recent texture synthesis technologies fail to ensure
consistency with the original model's appearance and cannot achieve
high-fidelity restoration. Moreover, background noise frequently arises in
high-resolution texture synthesis, limiting the practical application of these
generation technologies.In this work, we propose a high-resolution and
high-fidelity texture restoration technique that uses the rough texture as the
initial input to enhance the consistency between the synthetic texture and the
initial texture, thereby overcoming the issues of aliasing and blurring caused
by the user's structure simplification operations. Additionally, we introduce a
background noise smoothing technique based on a self-supervised scheme to
address the noise problem in current high-resolution texture synthesis schemes.
Our approach enables high-resolution texture synthesis, paving the way for
high-definition and high-detail texture synthesis technology. Experiments
demonstrate that our scheme outperforms currently known schemes in
high-fidelity texture recovery under high-resolution conditions.
- Abstract(参考訳): 最近の2D生成技術の進歩は、3D形状とテクスチャコンテンツ生成に2D前駆体を使うことについて広く議論されている。
しかし、これらの方法は、ユーザが3dモデルを取得して構造を単純化する際に生じるテクスチャエイリアスやぼやけといった、その後のユーザ操作を見落としていることが多い。
従来のグラフィック手法は部分的にこの問題を緩和するが、最近のテクスチャ合成技術は元のモデルと一貫性を持たず、高い再現性を達成できない。
さらに, 背景雑音は高分解能なテクスチャ合成において頻繁に発生し, これらの生成技術の実用的利用を制限している。本研究では, 粗いテクスチャを初期入力として用いて, 合成テクスチャと初期テクスチャの整合性を向上し, ユーザの構造簡略化操作によるエイリアス化や曖昧化の問題を克服する, 高分解能で高忠実なテクスチャ復元手法を提案する。
さらに,現在の高分解能テクスチャ合成方式におけるノイズ問題に対処する自己教師型スキームに基づく背景雑音平滑化手法を提案する。
本手法により,高分解能なテクスチャ合成が可能となり,高精細テクスチャ合成技術への道が開かれた。
実験により,高分解能条件下での高忠実度テクスチャ回復における現在知られているスキームに勝ることを示す。
関連論文リスト
- TexGen: Text-Guided 3D Texture Generation with Multi-view Sampling and Resampling [37.67373829836975]
テクスチャ生成のための新しい多視点サンプリングおよび再サンプリングフレームワークであるTexGenを提案する。
提案手法は,高精細度3次元オブジェクトに対して,高精細度で優れたテクスチャ品質を実現する。
また,テクスチャ生成技術は,テクスチャ編集にも適用可能である。
論文 参考訳(メタデータ) (2024-08-02T14:24:40Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - InTeX: Interactive Text-to-texture Synthesis via Unified Depth-aware Inpainting [46.330305910974246]
InteXはインタラクティブなテキスト・テクスチャ合成のための新しいフレームワークである。
InteXにはユーザフレンドリーなインターフェースが含まれており、合成プロセス全体を通してインタラクションと制御を容易にする。
本研究では,奥行き情報と塗り絵情報を統合する深度認識型塗り絵モデルを構築し,効果的に3次元不整合を緩和する。
論文 参考訳(メタデータ) (2024-03-18T15:31:57Z) - ConTex-Human: Free-View Rendering of Human from a Single Image with
Texture-Consistent Synthesis [49.28239918969784]
テクスチャに一貫性のあるバックビュー合成モジュールを導入し、参照画像コンテンツをバックビューに転送する。
また、テクスチャマッピングとリファインメントのための可視性対応パッチ整合性正規化と、合成したバックビューテクスチャの組み合わせを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:55:53Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Text-guided High-definition Consistency Texture Model [0.0]
本稿では,3次元メッシュのテクスチャをテキストプロンプトに従って生成する手法として,HCTM(High-definition Consistency Texture Model)を提案する。
本研究では,事前学習した深度画像拡散モデルを利用して,テキストプロンプトと深度マップに基づいて単一視点結果を生成する。
提案手法は、3次元メッシュに対して高精細で一貫したテクスチャを生成する上で有望な結果を示した。
論文 参考訳(メタデータ) (2023-05-10T05:09:05Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach [0.0]
多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
堅牢な深層学習プロセスを用いて,実例に基づくテクスチャ合成の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-14T18:17:37Z) - GramGAN: Deep 3D Texture Synthesis From 2D Exemplars [7.553635339893189]
本稿では,2次元画像が与えられた無限の高品質な3次元テクスチャの生成を可能にする,新しいテクスチャ合成フレームワークを提案する。
自然テクスチャ合成の最近の進歩に触発されて、学習されたノイズ周波数を非線形に組み合わせてテクスチャを生成するために、ディープニューラルネットワークを訓練する。
そこで本研究では,スタイル転送と生成対向ネットワークの両方からアイデアを結合した新たな損失関数を提案する。
論文 参考訳(メタデータ) (2020-06-29T15:22:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。