論文の概要: DiffStyle3D: Consistent 3D Gaussian Stylization via Attention Optimization
- arxiv url: http://arxiv.org/abs/2601.19717v1
- Date: Tue, 27 Jan 2026 15:41:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.372727
- Title: DiffStyle3D: Consistent 3D Gaussian Stylization via Attention Optimization
- Title(参考訳): DiffStyle3D:アテンション最適化による連続3次元ガウススティル化
- Authors: Yitong Yang, Xuexin Liu, Yinglin Wang, Jing Wang, Hao Dou, Changshuo Wang, Shuting He,
- Abstract要約: 3Dスタイルの転送により、視覚的に表現可能な3Dコンテンツを作成することができる。
DiffStyle3Dを提案する。DiffStyle3Dは3DGSスタイル転送のための新しい拡散型パラダイムである。
DiffStyle3Dは最先端の手法より優れ、より高度なスタイリゼーション品質と視覚リアリズムを実現する。
- 参考スコア(独自算出の注目度): 22.652699040654046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D style transfer enables the creation of visually expressive 3D content, enriching the visual appearance of 3D scenes and objects. However, existing VGG- and CLIP-based methods struggle to model multi-view consistency within the model itself, while diffusion-based approaches can capture such consistency but rely on denoising directions, leading to unstable training. To address these limitations, we propose DiffStyle3D, a novel diffusion-based paradigm for 3DGS style transfer that directly optimizes in the latent space. Specifically, we introduce an Attention-Aware Loss that performs style transfer by aligning style features in the self-attention space, while preserving original content through content feature alignment. Inspired by the geometric invariance of 3D stylization, we propose a Geometry-Guided Multi-View Consistency method that integrates geometric information into self-attention to enable cross-view correspondence modeling. Based on geometric information, we additionally construct a geometry-aware mask to prevent redundant optimization in overlapping regions across views, which further improves multi-view consistency. Extensive experiments show that DiffStyle3D outperforms state-of-the-art methods, achieving higher stylization quality and visual realism.
- Abstract(参考訳): 3Dスタイルの転送により、視覚的に表現可能な3Dコンテンツの作成が可能になり、3Dシーンやオブジェクトの視覚的外観が強化される。
しかし、既存のVGGおよびCLIPベースの手法はモデル自体内の複数ビューの一貫性をモデル化するのに苦労している。
これらの制約に対処するために,DiffStyle3Dを提案する。DiffStyle3Dは3DGSスタイル転送のための新しい拡散に基づくパラダイムで,遅延空間で直接最適化する。
具体的には,コンテンツ機能アライメントを通じてオリジナルコンテンツを保存しながら,自己注意空間におけるスタイル特徴を整列させてスタイル伝達を行うアテンション・アウェア・ロスを導入する。
3次元スタイリゼーションの幾何学的不変性に着想を得て,幾何学的情報を自己アテンションに統合し,クロスビュー対応モデリングを可能にする幾何誘導多視点一貫性法を提案する。
幾何学的情報に基づいて、ビュー間の重複する領域における冗長な最適化を防止し、マルチビューの整合性をさらに向上する。
大規模な実験により、DiffStyle3Dは最先端の手法より優れ、より高いスタイリゼーション品質と視覚リアリズムを達成することが示されている。
関連論文リスト
- StyleSculptor: Zero-Shot Style-Controllable 3D Asset Generation with Texture-Geometry Dual Guidance [50.207322685527394]
StyleSculptorは、コンテンツイメージと1つ以上のスタイルイメージからスタイル誘導された3Dアセットを生成するトレーニング不要のアプローチである。
ゼロショット方式でスタイル誘導3D生成を実現し、きめ細かい3Dスタイル制御を可能にする。
実験では、StyleSculptorは、高忠実度3Dアセットの生成において、既存のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2025-09-16T17:55:20Z) - SSGaussian: Semantic-Aware and Structure-Preserving 3D Style Transfer [57.723850794113055]
本研究では,事前学習した2次元拡散モデルから事前知識を統合する新しい3次元移動パイプラインを提案する。
パイプラインは2つの重要なステージで構成されています。
2つ目は、スタイリングされたキービュー間のインスタンスレベルの一貫性を効果的に活用し、それを3D表現に転送する、インスタンスレベルのスタイル転送である。
論文 参考訳(メタデータ) (2025-09-04T16:40:44Z) - Improved 3D Scene Stylization via Text-Guided Generative Image Editing with Region-Based Control [47.14550252881733]
ビューの整合性を保ちながら3次元スタイリゼーションの質を高める技術を導入し、任意の地域制御型スタイル転送を提供する。
本手法は,ソースビューのマルチビュー2D画像を用いて,初期3次元表現を再学習することで,スタイリゼーションを実現する。
本稿では,市販モデルのセグメンテーションマスクを用いて,異なる画像領域にスタイルを適用可能なマルチRegion Importance-Weighted Sliced Wasserstein Distance Lossを提案する。
論文 参考訳(メタデータ) (2025-09-04T15:01:01Z) - Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - Towards Multi-View Consistent Style Transfer with One-Step Diffusion via Vision Conditioning [12.43848969320173]
提案手法により生成した異なる視点からのスティル化画像は、構造的整合性が良く、歪みも少ない、優れた視覚的品質を実現する。
本手法は,3次元情報のないスタイリング画像における構造情報と多視点整合性を効果的に保存する。
論文 参考訳(メタデータ) (2024-11-15T12:02:07Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。