論文の概要: Enhancing Texture Generation with High-Fidelity Using Advanced Texture
Priors
- arxiv url: http://arxiv.org/abs/2403.05102v1
- Date: Fri, 8 Mar 2024 07:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:47:10.904237
- Title: Enhancing Texture Generation with High-Fidelity Using Advanced Texture
Priors
- Title(参考訳): 高度なテクスチャプリエントを用いた高忠実度テクスチャ生成の促進
- Authors: Kuo Xu, Maoyu Wang, Muyu Wang, Lincong Feng, Tianhui Zhang, Xiaoli Liu
- Abstract要約: 粗いテクスチャを初期入力として利用する高分解能で高忠実なテクスチャ復元手法を提案する。
また,現在の高分解能テクスチャ合成方式におけるノイズ問題に対処する自己教師型スキームに基づく背景雑音平滑化手法を提案する。
本手法により,高分解能なテクスチャ合成が可能となり,高精細テクスチャ合成技術への道が開かれた。
- 参考スコア(独自算出の注目度): 1.4542583614606408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advancements in 2D generation technology have sparked a widespread
discussion on using 2D priors for 3D shape and texture content generation.
However, these methods often overlook the subsequent user operations, such as
texture aliasing and blurring that occur when the user acquires the 3D model
and simplifies its structure. Traditional graphics methods partially alleviate
this issue, but recent texture synthesis technologies fail to ensure
consistency with the original model's appearance and cannot achieve
high-fidelity restoration. Moreover, background noise frequently arises in
high-resolution texture synthesis, limiting the practical application of these
generation technologies.In this work, we propose a high-resolution and
high-fidelity texture restoration technique that uses the rough texture as the
initial input to enhance the consistency between the synthetic texture and the
initial texture, thereby overcoming the issues of aliasing and blurring caused
by the user's structure simplification operations. Additionally, we introduce a
background noise smoothing technique based on a self-supervised scheme to
address the noise problem in current high-resolution texture synthesis schemes.
Our approach enables high-resolution texture synthesis, paving the way for
high-definition and high-detail texture synthesis technology. Experiments
demonstrate that our scheme outperforms currently known schemes in
high-fidelity texture recovery under high-resolution conditions.
- Abstract(参考訳): 最近の2D生成技術の進歩は、3D形状とテクスチャコンテンツ生成に2D前駆体を使うことについて広く議論されている。
しかし、これらの方法は、ユーザが3dモデルを取得して構造を単純化する際に生じるテクスチャエイリアスやぼやけといった、その後のユーザ操作を見落としていることが多い。
従来のグラフィック手法は部分的にこの問題を緩和するが、最近のテクスチャ合成技術は元のモデルと一貫性を持たず、高い再現性を達成できない。
さらに, 背景雑音は高分解能なテクスチャ合成において頻繁に発生し, これらの生成技術の実用的利用を制限している。本研究では, 粗いテクスチャを初期入力として用いて, 合成テクスチャと初期テクスチャの整合性を向上し, ユーザの構造簡略化操作によるエイリアス化や曖昧化の問題を克服する, 高分解能で高忠実なテクスチャ復元手法を提案する。
さらに,現在の高分解能テクスチャ合成方式におけるノイズ問題に対処する自己教師型スキームに基づく背景雑音平滑化手法を提案する。
本手法により,高分解能なテクスチャ合成が可能となり,高精細テクスチャ合成技術への道が開かれた。
実験により,高分解能条件下での高忠実度テクスチャ回復における現在知られているスキームに勝ることを示す。
関連論文リスト
- Texture Image Synthesis Using Spatial GAN Based on Vision Transformers [1.6482333106552793]
本研究では,視覚変換器(ViT)と空間生成支援ネットワーク(SGAN)を融合した新しいハイブリッドモデルViT-SGANを提案する。
平均分散(mu, sigma)やテクソンなどの特殊テクスチャ記述子をViTの自己保持機構に組み込むことで, 優れたテクスチャ合成を実現する。
論文 参考訳(メタデータ) (2025-02-03T21:39:30Z) - NeRF-Texture: Synthesizing Neural Radiance Field Textures [77.24205024987414]
与えられた多視点画像からテクスチャを捕捉・合成するためのニューラルレージアンス場(NeRF)を用いた新しいテクスチャ合成法を提案する。
提案したNeRFテクスチャ表現では、微細な幾何学的詳細を持つシーンをメソ構造テクスチャと基盤形状に分割する。
我々は潜伏特徴のパッチマッチングによってNeRFベースのテクスチャを合成できる。
論文 参考訳(メタデータ) (2024-12-13T09:41:48Z) - Make-A-Texture: Fast Shape-Aware Texture Generation in 3 Seconds [11.238020531599405]
テキストプロンプトから高分解能テクスチャマップを効率的に合成する新しいフレームワークであるMake-A-Textureを提案する。
この手法の重要な特徴は、NVIDIA H100 GPUでわずか3.07秒のエンドツーエンドランタイム内で完全なテクスチャ生成を実現するという、その顕著な効率である。
本研究は,インタラクティブなテクスチャ作成やテキストガイドによるテクスチャ編集を含む,現実世界の3Dコンテンツ作成のためのテクスチャ生成モデルの適用性と実用性を大幅に改善する。
論文 参考訳(メタデータ) (2024-12-10T18:58:29Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - InTeX: Interactive Text-to-texture Synthesis via Unified Depth-aware Inpainting [46.330305910974246]
InteXはインタラクティブなテキスト・テクスチャ合成のための新しいフレームワークである。
InteXにはユーザフレンドリーなインターフェースが含まれており、合成プロセス全体を通してインタラクションと制御を容易にする。
本研究では,奥行き情報と塗り絵情報を統合する深度認識型塗り絵モデルを構築し,効果的に3次元不整合を緩和する。
論文 参考訳(メタデータ) (2024-03-18T15:31:57Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach [0.0]
多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
堅牢な深層学習プロセスを用いて,実例に基づくテクスチャ合成の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-14T18:17:37Z) - GramGAN: Deep 3D Texture Synthesis From 2D Exemplars [7.553635339893189]
本稿では,2次元画像が与えられた無限の高品質な3次元テクスチャの生成を可能にする,新しいテクスチャ合成フレームワークを提案する。
自然テクスチャ合成の最近の進歩に触発されて、学習されたノイズ周波数を非線形に組み合わせてテクスチャを生成するために、ディープニューラルネットワークを訓練する。
そこで本研究では,スタイル転送と生成対向ネットワークの両方からアイデアを結合した新たな損失関数を提案する。
論文 参考訳(メタデータ) (2020-06-29T15:22:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。