論文の概要: StrandDesigner: Towards Practical Strand Generation with Sketch Guidance
- arxiv url: http://arxiv.org/abs/2508.01650v1
- Date: Sun, 03 Aug 2025 08:17:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.989324
- Title: StrandDesigner: Towards Practical Strand Generation with Sketch Guidance
- Title(参考訳): StrandDesigner: スケッチガイダンスによる実用的なストランドジェネレーションを目指して
- Authors: Na Zhang, Moran Li, Chengming Xu, Han Feng, Xiaobin Hu, Jiangning Zhang, Weijian Cao, Chengjie Wang, Yanwei Fu,
- Abstract要約: 本稿では,ユーザフレンドリなまま,より細かい制御が可能なスケッチベースストランド生成モデルを提案する。
私たちのフレームワークは、複雑なストランド相互作用や多様なスケッチパターンのモデリングなど、重要な課題に取り組みます。
いくつかのベンチマークデータセットの実験により、我々の手法は現実主義や精度において既存の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 69.14408387191172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic hair strand generation is crucial for applications like computer graphics and virtual reality. While diffusion models can generate hairstyles from text or images, these inputs lack precision and user-friendliness. Instead, we propose the first sketch-based strand generation model, which offers finer control while remaining user-friendly. Our framework tackles key challenges, such as modeling complex strand interactions and diverse sketch patterns, through two main innovations: a learnable strand upsampling strategy that encodes 3D strands into multi-scale latent spaces, and a multi-scale adaptive conditioning mechanism using a transformer with diffusion heads to ensure consistency across granularity levels. Experiments on several benchmark datasets show our method outperforms existing approaches in realism and precision. Qualitative results further confirm its effectiveness. Code will be released at [GitHub](https://github.com/fighting-Zhang/StrandDesigner).
- Abstract(参考訳): リアルなヘアストランド生成は、コンピュータグラフィックスやバーチャルリアリティーのようなアプリケーションにとって不可欠である。
拡散モデルはテキストや画像からヘアスタイルを生成することができるが、これらの入力には精度とユーザフレンドリさが欠けている。
代わりに、ユーザフレンドリーなまま、よりきめ細かい制御を提供するスケッチベースの最初のストランド生成モデルを提案する。
我々のフレームワークは、複雑なストランド相互作用と多様なスケッチパターンをモデル化する、学習可能な3次元ストランドアップサンプリング戦略をマルチスケールの潜在空間にエンコードする、学習可能なストランドアップサンプリング戦略と、拡散ヘッドを持つトランスフォーマーを用いたマルチスケール適応コンディショニング機構という、2つの主要なイノベーションを通じて、主要な課題に取り組む。
いくつかのベンチマークデータセットの実験により、我々の手法は現実主義や精度において既存の手法よりも優れていることが示された。
質的な結果は、その効果をさらに裏付ける。
コードは[GitHub](https://github.com/fighting-Zhang/StrandDesigner)でリリースされる。
関連論文リスト
- Controlling Avatar Diffusion with Learnable Gaussian Embedding [27.651478116386354]
我々は、最適化可能で、密度が高く、表現可能で、3次元一貫した新しい制御信号表現を導入する。
複数のポーズとアイデンティティを持つ大規模データセットを合成する。
我々のモデルは、現実主義、表現性、および3次元整合性の観点から、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2025-03-20T02:52:01Z) - TexPainter: Generative Mesh Texturing with Multi-view Consistency [20.366302413005734]
本稿では,マルチビューの一貫性を実現するための新しい手法を提案する。
最適化に基づくカラーフュージョンを用いて、一貫性を強制し、勾配バックプロパゲーションにより遅延符号を間接的に修正する。
提案手法は, テクスチャの整合性と全体的な品質を, 競合する最先端技術と比較して向上させる。
論文 参考訳(メタデータ) (2024-05-17T18:41:36Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Make-A-Shape: a Ten-Million-scale 3D Shape Model [52.701745578415796]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - 3DGen: Triplane Latent Diffusion for Textured Mesh Generation [17.178939191534994]
三面体VAEは、テクスチャメッシュの潜時表現を学習し、条件拡散モデルが三面体の特徴を生成する。
このアーキテクチャは初めて、高品質なテクスチャ化された、3Dメッシュの条件付きおよび非条件生成を可能にする。
メッシュの品質とテクスチャ生成において、イメージコンディショニングと非コンディショナリ生成において、従来よりも大幅にパフォーマンスが向上した。
論文 参考訳(メタデータ) (2023-03-09T16:18:14Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。