論文の概要: TANGLED: Generating 3D Hair Strands from Images with Arbitrary Styles and Viewpoints
- arxiv url: http://arxiv.org/abs/2502.06392v1
- Date: Mon, 10 Feb 2025 12:26:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:02.646846
- Title: TANGLED: Generating 3D Hair Strands from Images with Arbitrary Styles and Viewpoints
- Title(参考訳): TANGLED:任意スタイルと視点を持つ画像から3Dヘアストランドを生成する
- Authors: Pengyu Long, Zijun Zhao, Min Ouyang, Qingcheng Zhao, Qixuan Zhang, Wei Yang, Lan Xu, Jingyi Yu,
- Abstract要約: 既存のテキストや画像誘導生成手法は、多様なスタイルの豊かさと複雑さに対処できない。
本稿では,3次元ヘアストランド生成の新しいアプローチであるTANGLEDについて述べる。
- 参考スコア(独自算出の注目度): 38.95048174663582
- License:
- Abstract: Hairstyles are intricate and culturally significant with various geometries, textures, and structures. Existing text or image-guided generation methods fail to handle the richness and complexity of diverse styles. We present TANGLED, a novel approach for 3D hair strand generation that accommodates diverse image inputs across styles, viewpoints, and quantities of input views. TANGLED employs a three-step pipeline. First, our MultiHair Dataset provides 457 diverse hairstyles annotated with 74 attributes, emphasizing complex and culturally significant styles to improve model generalization. Second, we propose a diffusion framework conditioned on multi-view linearts that can capture topological cues (e.g., strand density and parting lines) while filtering out noise. By leveraging a latent diffusion model with cross-attention on lineart features, our method achieves flexible and robust 3D hair generation across diverse input conditions. Third, a parametric post-processing module enforces braid-specific constraints to maintain coherence in complex structures. This framework not only advances hairstyle realism and diversity but also enables culturally inclusive digital avatars and novel applications like sketch-based 3D strand editing for animation and augmented reality.
- Abstract(参考訳): ヘアスタイルは複雑で文化的に重要であり、様々な幾何学、テクスチャ、構造がある。
既存のテキストや画像誘導生成手法は、多様なスタイルの豊かさと複雑さに対処できない。
本稿では,3次元ヘアストランド生成の新しいアプローチであるTANGLEDについて述べる。
TANGLEDは3ステップのパイプラインを採用している。
まず、MultiHair Datasetは74の属性で注釈付けされた457種類のヘアスタイルを提供し、モデル一般化を改善するために複雑で文化的に重要なスタイルを強調します。
次に, 雑音を除去しながらトポロジカルな手がかり(例えば, ストランド密度, 分割線)を捉えることができる多視点線形関数を条件とした拡散フレームワークを提案する。
線形化特徴量に対するクロスアテンションを有する潜伏拡散モデルを利用して, 多様な入力条件で柔軟で頑健な3次元毛髪生成を実現する。
第3に、パラメトリック後処理モジュールは複雑な構造のコヒーレンスを維持するために、ブレイド固有の制約を強制する。
このフレームワークは、ヘアスタイルのリアリズムと多様性を向上するだけでなく、文化的に包括的なデジタルアバターや、スケッチベースのアニメーションや拡張現実のための3Dストランド編集のような新しい応用を可能にしている。
関連論文リスト
- Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [58.77520205498394]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - Towards Unified 3D Hair Reconstruction from Single-View Portraits [27.404011546957104]
そこで本研究では,統一パイプラインによるヘアタイプの一視点3D再構成を実現するための新しい手法を提案する。
本実験は, 単一視像からの編み型3次元毛髪と非編み型3次元毛髪の再構築が可能であることを示す。
論文 参考訳(メタデータ) (2024-09-25T12:21:31Z) - MonoHair: High-Fidelity Hair Modeling from a Monocular Video [40.27026803872373]
MonoHairはモノクロビデオから高忠実度毛髪再構築を実現するための汎用フレームワークである。
提案手法は, 毛髪のモデリング過程を, 正確な外装再構築と内部構造推定の2つの段階に分岐させる。
実験により,本手法は多彩なヘアスタイルにまたがって頑健性を示し,最先端の性能を実現していることが示された。
論文 参考訳(メタデータ) (2024-03-27T08:48:47Z) - GaussianHair: Hair Modeling and Rendering with Light-aware Gaussians [41.52673678183542]
本稿では,新鮮な毛髪表現であるGaussianHairについて述べる。
ヘア幾何学と画像からの外観の包括的モデリングを可能にし、革新的な照明効果と動的アニメーション能力を育む。
我々はこのモデルを"GaussianHair Scattering Model"でさらに強化し、ヘアストランドの細い構造を再現し、均一な照明で局所的な拡散色を正確に捉えた。
論文 参考訳(メタデータ) (2024-02-16T07:13:24Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - A Local Appearance Model for Volumetric Capture of Diverse Hairstyle [15.122893482253069]
ヘアは個人のアイデンティティと外観において重要な役割を担い、高品質で光現実主義的なアバターの重要な構成要素となっている。
既存のアプローチでは、顔領域のみをモデル化するか、パーソナライズされたモデルに依存し、一般化性とスケーラビリティを制限している。
ヘアスタイルの多彩な高忠実アバターを創出する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T06:29:59Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Neural Strands: Learning Hair Geometry and Appearance from Multi-View
Images [40.91569888920849]
マルチビュー画像入力から正確な毛髪形状と外観をモデル化する新しい学習フレームワークであるNeural Strandsを提案する。
学習したヘアモデルは、高忠実度ビュー依存効果のあるあらゆる視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-28T13:08:46Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。