論文の概要: GT^2-GS: Geometry-aware Texture Transfer for Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2505.15208v1
- Date: Wed, 21 May 2025 07:37:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.114456
- Title: GT^2-GS: Geometry-aware Texture Transfer for Gaussian Splatting
- Title(参考訳): GT^2-GS:Geometry-Aware Texture Transfer for Gaussian Splatting (特集:GT^2-GS)
- Authors: Wenjie Liu, Zhongliang Liu, Junwei Shu, Changbo Wang, Yang Li,
- Abstract要約: GT2-GSはガウス分割のための幾何学的テクスチャ伝達フレームワークである。
テクスチャ特徴をシーン表現に最適化するために,テクスチャの幾何一貫性を欠くテクスチャロスを提案する。
提案手法は,人間の視覚知覚とよりよく一致したテクスチャ伝達結果を実現する。
- 参考スコア(独自算出の注目度): 10.688496236943182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transferring 2D textures to 3D modalities is of great significance for improving the efficiency of multimedia content creation. Existing approaches have rarely focused on transferring image textures onto 3D representations. 3D style transfer methods are capable of transferring abstract artistic styles to 3D scenes. However, these methods often overlook the geometric information of the scene, which makes it challenging to achieve high-quality 3D texture transfer results. In this paper, we present GT^2-GS, a geometry-aware texture transfer framework for gaussian splitting. From the perspective of matching texture features with geometric information in rendered views, we identify the issue of insufficient texture features and propose a geometry-aware texture augmentation module to expand the texture feature set. Moreover, a geometry-consistent texture loss is proposed to optimize texture features into the scene representation. This loss function incorporates both camera pose and 3D geometric information of the scene, enabling controllable texture-oriented appearance editing. Finally, a geometry preservation strategy is introduced. By alternating between the texture transfer and geometry correction stages over multiple iterations, this strategy achieves a balance between learning texture features and preserving geometric integrity. Extensive experiments demonstrate the effectiveness and controllability of our method. Through geometric awareness, our approach achieves texture transfer results that better align with human visual perception. Our homepage is available at https://vpx-ecnu.github.io/GT2-GS-website.
- Abstract(参考訳): 2Dテクスチャを3Dモダリティに転送することは、マルチメディアコンテンツ作成の効率を向上させる上で非常に重要である。
既存のアプローチでは、画像テクスチャを3D表現に転送することに集中することはめったにない。
3Dスタイルの転送方法は抽象的な芸術的スタイルを3Dシーンに転送することができる。
しかし,これらの手法はしばしばシーンの幾何学的情報を見落としているため,高品質な3次元テクスチャ転送結果の達成は困難である。
本稿では,ガウス分割のための幾何学的テクスチャ伝達フレームワークGT^2-GSを提案する。
描画ビューにおけるテクスチャ特徴と幾何学的情報との整合性の観点から、テクスチャ特徴の不足の問題を特定し、テクスチャ特徴集合を拡張するための幾何学的テクスチャ拡張モジュールを提案する。
さらに、テクスチャ特徴をシーン表現に最適化するために、テクスチャロスの幾何学的整合性を提案する。
この損失関数は、シーンのカメラポーズと3次元幾何学情報の両方を組み込んで、テクスチャ指向の外観編集を可能にする。
最後に、幾何保存戦略を導入する。
複数の反復でテクスチャ伝達と幾何補正の段階を交互に行うことにより、この戦略は学習テクスチャ特徴と幾何整合性を維持するためのバランスをとることができる。
本手法の有効性と制御性を示す実験を行った。
幾何学的認識により,人間の視覚的知覚とよりよく一致したテクスチャ伝達結果が得られる。
私たちのホームページはhttps://vpx-ecnu.github.io/GT2-GS-website.orgで公開されています。
関連論文リスト
- TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - Tactile DreamFusion: Exploiting Tactile Sensing for 3D Generation [39.702921832009466]
本稿では,タッチを付加的なモダリティとして組み込むことにより,生成した3次元資産の幾何学的詳細性を向上する手法を提案する。
2次元拡散モデルにより導かれる視覚的および触覚的テクスチャを合成する軽量な3次元テクスチャ場を設計する。
我々は,3次元生成タスクの幾何学的詳細性を高めるために,高分解能触覚を初めて活用する。
論文 参考訳(メタデータ) (2024-12-09T18:59:45Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - GeoScaler: Geometry and Rendering-Aware Downsampling of 3D Mesh Textures [0.06990493129893112]
高解像度テクスチャマップは、3Dメッシュで現実世界のオブジェクトを正確に表現するために必要である。
GeoScalerは幾何学的手がかりを取り入れつつ、3Dメッシュのテクスチャマップをダウンサンプリングする方法である。
また,GeoScalerが生成したテクスチャは,従来のダウンサンプリング手法に比べて,画質のよいレンダリング画像を提供することを示した。
論文 参考訳(メタデータ) (2023-11-28T07:55:25Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - Projective Urban Texturing [8.349665441428925]
没入型都市環境における3次元都市メッシュのテクスチャ自動生成手法を提案する。
Projective Urban Texturing (PUT)は、実際のパノラマ画像から見えない都市メッシュへのテクスチャスタイルを再ターゲットする。
PUTは、未ペア画像からテクスチャへの変換用に設計されたニューラルアーキテクチャの、対照的で敵対的なトレーニングに依存している。
論文 参考訳(メタデータ) (2022-01-25T14:56:52Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - Exemplar-Based 3D Portrait Stylization [23.585334925548064]
ワンショット3Dポートレートスタイル転送のための最初のフレームワークを提示する。
形状が誇張され、テクスチャがスタイリングされた3Dフェイスモデルを生成することができる。
本手法は,異なるスタイルの芸術的効果を強く達成し,既存の手法より優れる。
論文 参考訳(メタデータ) (2021-04-29T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。