論文の概要: StyleSculptor: Zero-Shot Style-Controllable 3D Asset Generation with Texture-Geometry Dual Guidance
- arxiv url: http://arxiv.org/abs/2509.13301v1
- Date: Tue, 16 Sep 2025 17:55:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.216356
- Title: StyleSculptor: Zero-Shot Style-Controllable 3D Asset Generation with Texture-Geometry Dual Guidance
- Title(参考訳): StyleSculptor: テクスチュアジオメトリによるゼロショットスタイル制御可能な3次元アセット生成
- Authors: Zefan Qu, Zhenwei Wang, Haoyuan Wang, Ke Xu, Gerhard Hancke, Rynson W. H. Lau,
- Abstract要約: StyleSculptorは、コンテンツイメージと1つ以上のスタイルイメージからスタイル誘導された3Dアセットを生成するトレーニング不要のアプローチである。
ゼロショット方式でスタイル誘導3D生成を実現し、きめ細かい3Dスタイル制御を可能にする。
実験では、StyleSculptorは、高忠実度3Dアセットの生成において、既存のベースライン手法よりも優れている。
- 参考スコア(独自算出の注目度): 50.207322685527394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating 3D assets that follow the texture and geometry style of existing ones is often desirable or even inevitable in practical applications like video gaming and virtual reality. While impressive progress has been made in generating 3D objects from text or images, creating style-controllable 3D assets remains a complex and challenging problem. In this work, we propose StyleSculptor, a novel training-free approach for generating style-guided 3D assets from a content image and one or more style images. Unlike previous works, StyleSculptor achieves style-guided 3D generation in a zero-shot manner, enabling fine-grained 3D style control that captures the texture, geometry, or both styles of user-provided style images. At the core of StyleSculptor is a novel Style Disentangled Attention (SD-Attn) module, which establishes a dynamic interaction between the input content image and style image for style-guided 3D asset generation via a cross-3D attention mechanism, enabling stable feature fusion and effective style-guided generation. To alleviate semantic content leakage, we also introduce a style-disentangled feature selection strategy within the SD-Attn module, which leverages the variance of 3D feature patches to disentangle style- and content-significant channels, allowing selective feature injection within the attention framework. With SD-Attn, the network can dynamically compute texture-, geometry-, or both-guided features to steer the 3D generation process. Built upon this, we further propose the Style Guided Control (SGC) mechanism, which enables exclusive geometry- or texture-only stylization, as well as adjustable style intensity control. Extensive experiments demonstrate that StyleSculptor outperforms existing baseline methods in producing high-fidelity 3D assets.
- Abstract(参考訳): 既存のテクスチャや幾何学スタイルに従う3Dアセットを作ることは、ビデオゲームや仮想現実といった現実的な応用において、しばしば望ましいか、あるいは避けられない。
テキストや画像から3Dオブジェクトを生成する際には、目覚ましい進歩があったが、スタイル制御可能な3Dアセットの作成は、複雑で難しい問題のままである。
本研究では、コンテンツ画像と1つ以上のスタイル画像からスタイル誘導された3Dアセットを生成する新しいトレーニング不要なアプローチであるStyleSculptorを提案する。
これまでとは違って、StyleSculptorは、ゼロショットでスタイル誘導された3D生成を実現し、テクスチャ、幾何学、あるいはユーザが提供するスタイルイメージの両方のスタイルをキャプチャする、きめ細かい3Dスタイル制御を可能にする。
StyleSculptorのコアとなる新しいStyle Disentangled Attention (SD-Attn)モジュールは、入力コンテンツ画像とスタイル誘導3Dアセット生成のためのスタイル誘導3Dアセット生成のための動的相互作用を確立し、安定した特徴融合と効果的なスタイル誘導生成を可能にする。
また,SD-Attnモジュール内での3次元特徴パッチの分散を利用して,注目フレームワーク内での選択的特徴注入を可能にする,意味的コンテンツの漏洩を軽減するために,SD-Attnモジュール内にスタイル不整形特徴選択戦略を導入する。
SD-Attnにより、ネットワークはテクスチャ、幾何学、および両方の誘導された特徴を動的に計算し、3D生成プロセスを制御できる。
これを基にしたスタイルガイド制御(Style Guided Control, SGC)機構を提案する。
大規模な実験により、StyleSculptorは、高忠実度3Dアセットの生成において、既存のベースライン手法よりも優れていることが示された。
関連論文リスト
- Improved 3D Scene Stylization via Text-Guided Generative Image Editing with Region-Based Control [47.14550252881733]
ビューの整合性を保ちながら3次元スタイリゼーションの質を高める技術を導入し、任意の地域制御型スタイル転送を提供する。
本手法は,ソースビューのマルチビュー2D画像を用いて,初期3次元表現を再学習することで,スタイリゼーションを実現する。
本稿では,市販モデルのセグメンテーションマスクを用いて,異なる画像領域にスタイルを適用可能なマルチRegion Importance-Weighted Sliced Wasserstein Distance Lossを提案する。
論文 参考訳(メタデータ) (2025-09-04T15:01:01Z) - Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - StyleSplat: 3D Object Style Transfer with Gaussian Splatting [0.3374875022248866]
スタイル転送は、さまざまな芸術スタイルで3Dアセットを強化し、創造的な表現を変革する。
本稿では,3次元ガウス表現シーンにおける3次元オブジェクトのスタイリング手法であるStyleSplatを紹介する。
様々な3Dシーンやスタイルにまたがって有効性を示し、3D生成における制御とカスタマイズの強化を示す。
論文 参考訳(メタデータ) (2024-07-12T17:55:08Z) - DeformToon3D: Deformable 3D Toonification from Neural Radiance Fields [96.0858117473902]
3Dトーン化には、テクスチャ化された幾何学とテクスチャで、アートドメインのスタイルをターゲットの3D顔に転送することが含まれる。
階層型3D GANに適した効果的なトーン化フレームワークであるDeformToon3Dを提案する。
提案手法は3次元トーン化を幾何学とテクスチャスタイリングのサブプロブレムに分解し,元の潜伏空間をよりよく保存する。
論文 参考訳(メタデータ) (2023-09-08T16:17:45Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - DreamStone: Image as Stepping Stone for Text-Guided 3D Shape Generation [105.97545053660619]
テキスト誘導型3次元形状生成手法DreamStoneを提案する。
画像を使ってテキストと形状のギャップを埋め、ペアのテキストと3Dデータを必要とせずに3Dの形状を生成する。
我々のアプローチは汎用的で柔軟でスケーラブルであり、様々なSVRモデルと容易に統合でき、生成空間を拡大し、生成忠実性を向上させることができる。
論文 参考訳(メタデータ) (2023-03-24T03:56:23Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。