論文の概要: Fast Texture Transfer for XR Avatars via Barycentric UV Conversion
- arxiv url: http://arxiv.org/abs/2508.19518v1
- Date: Wed, 27 Aug 2025 02:14:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.470179
- Title: Fast Texture Transfer for XR Avatars via Barycentric UV Conversion
- Title(参考訳): Barycentric UV変換によるXRアバターの高速テクスチャ転送
- Authors: Hail Song, Seokhwan Yang, Woontack Woo,
- Abstract要約: 本稿では,顔のテクスチャをSMPL-Xベースのフルボディアバターに高速かつ効率的に転送する方法を提案する。
提案手法は,UVマッピング全体を1つの変換行列にプリコンプリートし,単一の操作でテクスチャ転送を可能にする。
- 参考スコア(独自算出の注目度): 9.38071392391528
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a fast and efficient method for transferring facial textures onto SMPL-X-based full-body avatars. Unlike conventional affine-transform methods that are slow and prone to visual artifacts, our method utilizes a barycentric UV conversion technique. Our approach precomputes the entire UV mapping into a single transformation matrix, enabling texture transfer in a single operation. This results in a speedup of over 7000x compared to the baseline, while also significantly improving the final texture quality by eliminating boundary artifacts. Through quantitative and qualitative evaluations, we demonstrate that our method offers a practical solution for personalization in immersive XR applications. The code is available online.
- Abstract(参考訳): 本稿では,顔のテクスチャをSMPL-Xベースのフルボディアバターに高速かつ効率的に転送する方法を提案する。
従来のアフィン変換法とは異なり,本手法ではバリ中心紫外線変換方式を用いる。
提案手法は,UVマッピング全体を1つの変換行列にプリコンプリートし,単一の操作でテクスチャ転送を可能にする。
その結果, ベースラインに比べて7000倍以上の速度向上が達成され, 境界アーティファクトの除去により最終テクスチャ品質が著しく向上した。
定量的および定性的な評価を通じて,本手法が没入型XRアプリケーションにおけるパーソナライズのための実用的なソリューションであることを実証する。
コードはオンラインで入手できる。
関連論文リスト
- Retinex-guided Histogram Transformer for Mask-free Shadow Removal [12.962534359029103]
ReHiTは、Retinex理論でガイドされたハイブリッドCNN-Transformerアーキテクチャに基づく、効率的なマスクフリーのシャドウ除去フレームワークである。
提案手法は,最少パラメータの1つと最上位エントリ間の高速推論速度で競合する結果を提供する。
論文 参考訳(メタデータ) (2025-04-18T22:19:40Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - Materialist: Physically Based Editing Using Single-Image Inverse Rendering [47.85234717907478]
マテリアルスト(Materist)は、学習に基づくアプローチと物理的にベースとしたプログレッシブ・差別化可能なレンダリングを組み合わせる方法である。
我々のアプローチは、マテリアル編集、オブジェクト挿入、リライトなど、幅広いアプリケーションを可能にする。
実験は、合成および実世界のデータセット間で強力なパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-01-07T11:52:01Z) - TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map Optimization and Physically-Based Rendering [47.78392889256976]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - Color and Texture Dual Pipeline Lightweight Style Transfer [1.1863107884314108]
スタイル伝達法は通常、参照スタイルのための色とテクスチャの結合の単一のスタイル化された出力を生成する。
色とテクスチャの転送結果の同時出力に2重パイプライン方式を用いるカラー・テクスチャ二重パイプライン方式のライトウェイト転送CTDP法を提案する。
比較実験では、CTDPが生成した色とテクスチャの伝達結果はどちらも最先端の性能を達成している。
論文 参考訳(メタデータ) (2023-10-02T16:29:49Z) - Mesh Strikes Back: Fast and Efficient Human Reconstruction from RGB
videos [15.746993448290175]
多くの方法は、遅延レンダリング、NeRF、暗黙の手法を用いて、人間の衣服を表現している。
SMPL+Dメッシュの最適化と,効率的な多面的テクスチャ表現による対向的視点を提供する。
我々は、NeRF法と比較して、新規ポーズ合成の競争力のある新規ビュー合成と改善を示す。
論文 参考訳(メタデータ) (2023-03-15T17:57:13Z) - FFHQ-UV: Normalized Facial UV-Texture Dataset for 3D Face Reconstruction [46.3392612457273]
このデータセットには、5万以上の高品質なテクスチャUVマップが含まれており、照度、中性表現、クリーンな顔領域がある。
我々のパイプラインは、StyleGANベースの顔画像編集アプローチの最近の進歩を活用している。
実験により,本手法は最先端手法よりも再現精度が向上することが示された。
論文 参考訳(メタデータ) (2022-11-25T03:21:05Z) - 3D Human Texture Estimation from a Single Image with Transformers [106.6320286821364]
単一画像からの3次元人間のテクスチャ推定のためのトランスフォーマーベースのフレームワークを提案する。
また,RGBモデルとテクスチャフローモデルを組み合わせたマスク融合方式を提案する。
論文 参考訳(メタデータ) (2021-09-06T16:00:20Z) - Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning [74.09149955786367]
ArtNetは、高解像度画像上の普遍的、リアルタイム、および高品質なスタイル転送を同時に達成することができる。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
論文 参考訳(メタデータ) (2020-06-16T09:50:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。