論文の概要: FaceRefiner: High-Fidelity Facial Texture Refinement with Differentiable Rendering-based Style Transfer
- arxiv url: http://arxiv.org/abs/2601.04520v1
- Date: Thu, 08 Jan 2026 02:34:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.99897
- Title: FaceRefiner: High-Fidelity Facial Texture Refinement with Differentiable Rendering-based Style Transfer
- Title(参考訳): FaceRefiner:Rendering-based Style Transferを用いた高精細顔面テクスチャリファインメント
- Authors: Chengyang Li, Baoping Cheng, Yao Cheng, Haocheng Zhang, Renshuai Liu, Yinglin Zheng, Jing Liao, Xuan Cheng,
- Abstract要約: FaceRefinerは、3Dサンプルテクスチャをスタイルとして扱い、テクスチャ生成法の出力をコンテンツとして扱う。
テクスチャの質と顔のアイデンティティの保存能力は,最先端技術と比較して向上する。
- 参考スコア(独自算出の注目度): 25.22448866321302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent facial texture generation methods prefer to use deep networks to synthesize image content and then fill in the UV map, thus generating a compelling full texture from a single image. Nevertheless, the synthesized texture UV map usually comes from a space constructed by the training data or the 2D face generator, which limits the methods' generalization ability for in-the-wild input images. Consequently, their facial details, structures and identity may not be consistent with the input. In this paper, we address this issue by proposing a style transfer-based facial texture refinement method named FaceRefiner. FaceRefiner treats the 3D sampled texture as style and the output of a texture generation method as content. The photo-realistic style is then expected to be transferred from the style image to the content image. Different from current style transfer methods that only transfer high and middle level information to the result, our style transfer method integrates differentiable rendering to also transfer low level (or pixel level) information in the visible face regions. The main benefit of such multi-level information transfer is that, the details, structures and semantics in the input can thus be well preserved. The extensive experiments on Multi-PIE, CelebA and FFHQ datasets demonstrate that our refinement method can improve the texture quality and the face identity preserving ability, compared with state-of-the-arts.
- Abstract(参考訳): 近年の顔テクスチャ生成法では、ディープネットワークを用いて画像内容を合成し、紫外線マップを埋めることが好まれており、単一の画像から魅力的なフルテクスチャを生成する。
それでも、合成されたテクスチャUVマップは通常、トレーニングデータまたは2Dフェイスジェネレータによって構築された空間から来ている。
その結果、顔の詳細、構造、アイデンティティは入力と一致しない可能性がある。
本稿では,FaceRefiner という顔テクスチャ改善手法を提案することで,この問題に対処する。
FaceRefinerは、3Dサンプルテクスチャをスタイルとして扱い、テクスチャ生成法の出力をコンテンツとして扱う。
次に、フォトリアリスティックなスタイルを、スタイルイメージからコンテンツイメージに転送することが期待される。
本手法は,高レベル・中レベルの情報のみを結果に転送する現在のスタイル転送方法と異なり,低レベル(またはピクセルレベル)情報を可視領域に転送するために,可変レンダリングを統合している。
このような多レベル情報転送の主な利点は、入力の細部、構造、セマンティクスが十分に保存できることである。
マルチPIE, CelebA, FFHQデータセットの広範な実験により, 我々の改良手法はテクスチャ品質と顔認証の保存能力を向上させることができることを示した。
関連論文リスト
- A Scalable Attention-Based Approach for Image-to-3D Texture Mapping [3.8476192001237597]
高品質なテクスチャは、リアルな3Dコンテンツ作成に不可欠です。
既存の生成法は遅く、紫外線マップに依存しており、しばしば参照画像に忠実に保たない。
本稿では,1つの画像とメッシュから直接3次元テクスチャ場を予測するトランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-05T14:18:52Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - FabricDiffusion: High-Fidelity Texture Transfer for 3D Garments Generation from In-The-Wild Clothing Images [56.63824638417697]
ファブリックディフュージョン(FabricDiffusion)は、織物のテクスチャを1枚の衣服画像から任意の形状の3D衣服に転送する方法である。
FabricDiffusionは、テクスチャパターン、材料特性、詳細な印刷物やロゴを含む、単一の衣料品画像から様々な特徴を伝達できることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:12Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - ConTex-Human: Free-View Rendering of Human from a Single Image with
Texture-Consistent Synthesis [49.28239918969784]
テクスチャに一貫性のあるバックビュー合成モジュールを導入し、参照画像コンテンツをバックビューに転送する。
また、テクスチャマッピングとリファインメントのための可視性対応パッチ整合性正規化と、合成したバックビューテクスチャの組み合わせを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:55:53Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - 3D Face Arbitrary Style Transfer [18.09280257466941]
FDST(Face-Guided Dual Style Transfer)という新しい手法を提案する。
FDSTは3Dデカップリングモジュールを使用して顔の形状とテクスチャを分離する。
FDSTは、領域制御可能なスタイル転送、高忠実な顔テクスチャ再構築、芸術的な顔再構成など、多くの下流タスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-14T08:51:51Z) - Exemplar-Based 3D Portrait Stylization [23.585334925548064]
ワンショット3Dポートレートスタイル転送のための最初のフレームワークを提示する。
形状が誇張され、テクスチャがスタイリングされた3Dフェイスモデルを生成することができる。
本手法は,異なるスタイルの芸術的効果を強く達成し,既存の手法より優れる。
論文 参考訳(メタデータ) (2021-04-29T17:59:54Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images
Using Graph Convolutional Networks [32.859340851346786]
本研究では,一眼レフ画像から高忠実度テクスチャで3次元顔形状を再構成する手法を提案する。
提案手法は, 質的, 定量的な比較において, 高品質な結果を生成し, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-03-12T08:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。