論文の概要: DiffStyle360: Diffusion-Based 360° Head Stylization via Style Fusion Attention
- arxiv url: http://arxiv.org/abs/2511.22411v1
- Date: Thu, 27 Nov 2025 12:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.566385
- Title: DiffStyle360: Diffusion-Based 360° Head Stylization via Style Fusion Attention
- Title(参考訳): DiffStyle360:Diffusion-based 360° Head Stylization by Style Fusion Attention
- Authors: Furkan Guzelant, Arda Goktogan, Tarık Kaya, Aysegul Dundar,
- Abstract要約: 3Dヘッドのスタイリングは、リアルな人間の頭部を様々な芸術的な形で再現する重要な技術として登場した。
DiffStyle360は、一貫したID保存型3Dヘッドスタイリングを生成できる拡散ベースのフレームワークである。
DiffStyle360はより優れたスタイル品質を実現し、最先端のGANおよび拡散型スタイリング法より優れることを示す。
- 参考スコア(独自算出の注目度): 12.70036301582592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D head stylization has emerged as a key technique for reimagining realistic human heads in various artistic forms, enabling expressive character design and creative visual experiences in digital media. Despite the progress in 3D-aware generation, existing 3D head stylization methods often rely on computationally expensive optimization or domain-specific fine-tuning to adapt to new styles. To address these limitations, we propose DiffStyle360, a diffusion-based framework capable of producing multi-view consistent, identity-preserving 3D head stylizations across diverse artistic domains given a single style reference image, without requiring per-style training. Building upon the 3D-aware DiffPortrait360 architecture, our approach introduces two key components: the Style Appearance Module, which disentangles style from content, and the Style Fusion Attention mechanism, which adaptively balances structure preservation and stylization fidelity in the latent space. Furthermore, we employ a 3D GAN-generated multi-view dataset for robust fine-tuning and introduce a temperaturebased key scaling strategy to control stylization intensity during inference. Extensive experiments on FFHQ and RenderMe360 demonstrate that DiffStyle360 achieves superior style quality, outperforming state-of-the-art GAN- and diffusion-based stylization methods across challenging style domains.
- Abstract(参考訳): 3Dヘッドのスタイリングは、様々な芸術形態でリアルな人間の頭部を再現し、表現力のあるキャラクターデザインとデジタルメディアにおける創造的な視覚体験を可能にする重要な技術として登場した。
3D認識生成の進歩にもかかわらず、既存の3Dヘッドスタイリング手法は、新しいスタイルに適応するために計算コストのかかる最適化やドメイン固有の微調整に頼っていることが多い。
これらの制約に対処するために,DiffStyle360という拡散型フレームワークを提案する。
DiffPortrait360アーキテクチャをベースとして,コンテンツからスタイルをアンタングルするStyle Appearance Moduleと,遅延空間における構造保存とスタイル化の忠実さを適応的にバランスするStyle Fusion Attentionメカニズムという,2つの重要なコンポーネントを紹介した。
さらに、3D GAN生成したマルチビューデータセットを堅牢な微調整に使用し、温度に基づくキースケーリング戦略を導入し、推論時のスタイリゼーション強度を制御する。
FFHQとRenderMe360の大規模な実験により、DiffStyle360はより優れたスタイル品質を実現し、最先端のGANや拡散ベースのスタイル化手法よりも優れていた。
関連論文リスト
- StyleSculptor: Zero-Shot Style-Controllable 3D Asset Generation with Texture-Geometry Dual Guidance [50.207322685527394]
StyleSculptorは、コンテンツイメージと1つ以上のスタイルイメージからスタイル誘導された3Dアセットを生成するトレーニング不要のアプローチである。
ゼロショット方式でスタイル誘導3D生成を実現し、きめ細かい3Dスタイル制御を可能にする。
実験では、StyleSculptorは、高忠実度3Dアセットの生成において、既存のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2025-09-16T17:55:20Z) - Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - Identity Preserving 3D Head Stylization with Multiview Score Distillation [7.8340104876025105]
3Dヘッドスタイリングは、リアルな顔の特徴を芸術的な表現に変換し、ゲームやバーチャルリアリティーアプリケーションにおけるユーザーのエンゲージメントを高める。
本稿では,PanoHeadモデルを活用することで,360度の総合的な視点から画像を合成することで,これらの課題に対処する。
本稿では, 否定対数類似蒸留(LD)を利用した新しい枠組みを提案し, アイデンティティの保存とスタイリゼーション品質の向上を図る。
論文 参考訳(メタデータ) (2024-11-20T18:37:58Z) - ArtNeRF: A Stylized Neural Field for 3D-Aware Cartoonized Face Synthesis [11.463969116010183]
ArtNeRFは、3D対応のGANから派生した新しい顔スタイリングフレームワークである。
スタイル整合性を改善するために,スタイリングされた顔と三分岐判別器モジュールを合成する表現的ジェネレータを提案する。
実験により、ArtNeRFは任意のスタイルで高品質な3D対応マンガの顔を生成するのに多用途であることが示された。
論文 参考訳(メタデータ) (2024-04-21T16:45:35Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。