論文の概要: Multi-level Dynamic Style Transfer for NeRFs
- arxiv url: http://arxiv.org/abs/2510.00592v1
- Date: Wed, 01 Oct 2025 07:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.437412
- Title: Multi-level Dynamic Style Transfer for NeRFs
- Title(参考訳): NeRFのマルチレベルダイナミックスタイル転送
- Authors: Zesheng Li, Shuaibo Li, Wei Ma, Jianwei Guo, Hongbin Zha,
- Abstract要約: MDS-NeRFは、NeRFパイプラインをスタイリング用に再設計する新しいアプローチである。
コンテンツラディアンスフィールドから多レベル特徴グリッド表現を生成するのに役立つ多レベル特徴グリッド適応器を提案する。
また、関連するスタイルの特徴を抽出し、それらをコンテンツパターンに適応的に統合する動的スタイルインジェクションモジュールを提案する。
- 参考スコア(独自算出の注目度): 40.439070690681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the application of neural radiance fields (NeRFs) in various 3D vision tasks continues to expand, numerous NeRF-based style transfer techniques have been developed. However, existing methods typically integrate style statistics into the original NeRF pipeline, often leading to suboptimal results in both content preservation and artistic stylization. In this paper, we present multi-level dynamic style transfer for NeRFs (MDS-NeRF), a novel approach that reengineers the NeRF pipeline specifically for stylization and incorporates an innovative dynamic style injection module. Particularly, we propose a multi-level feature adaptor that helps generate a multi-level feature grid representation from the content radiance field, effectively capturing the multi-scale spatial structure of the scene. In addition, we present a dynamic style injection module that learns to extract relevant style features and adaptively integrates them into the content patterns. The stylized multi-level features are then transformed into the final stylized view through our proposed multi-level cascade decoder. Furthermore, we extend our 3D style transfer method to support omni-view style transfer using 3D style references. Extensive experiments demonstrate that MDS-NeRF achieves outstanding performance for 3D style transfer, preserving multi-scale spatial structures while effectively transferring stylistic characteristics.
- Abstract(参考訳): 様々な3次元視覚タスクにおけるニューラルレイディアンスフィールド(NeRF)の適用が拡大し続けており、多くのNeRFベースのスタイル転送技術が開発されている。
しかし、既存の手法は通常、スタイル統計を元のNeRFパイプラインに統合し、しばしばコンテンツ保存と芸術的スタイリゼーションの両方において最適な結果をもたらす。
本稿では,NeRFパイプラインをスタイリング用に再設計し,革新的な動的インジェクションモジュールを組み込んだ新手法であるNeRF(MDS-NeRF)のマルチレベル動的スタイル転送を提案する。
特に,コンテンツラディアンスフィールドからマルチレベル特徴グリッド表現の生成を支援するマルチレベル特徴グリッド適応器を提案し,シーンのマルチスケール空間構造を効果的に把握する。
さらに、関連するスタイルの特徴を抽出し、それらをコンテンツパターンに適応的に統合する動的スタイルインジェクションモジュールを提案する。
このスタイリングされたマルチレベル特徴は,提案したマルチレベルカスケードデコーダを通じて最終スタイリングされたビューに変換される。
さらに、3Dスタイルの参照を用いたOmniビュースタイルの転送をサポートするために、3Dスタイルの転送手法を拡張した。
広汎な実験により,MDS-NeRFは多スケール空間構造を保ちながらスタイリスティックな特性を効果的に伝達しながら,3Dスタイルの転写に優れた性能を発揮することが示された。
関連論文リスト
- One-Shot Refiner: Boosting Feed-forward Novel View Synthesis via One-Step Diffusion [57.824020826432815]
スパース画像から高忠実性ノベルビュー合成(NVS)を実現するための新しいフレームワークを提案する。
ViTバックボーンによって制限されることなく高解像度画像を処理できるデュアルドメイン詳細知覚モジュールを設計する。
我々は,修復過程において高周波の詳細を保存できる特徴誘導拡散ネットワークを開発した。
論文 参考訳(メタデータ) (2026-01-20T17:11:55Z) - SSGaussian: Semantic-Aware and Structure-Preserving 3D Style Transfer [57.723850794113055]
本研究では,事前学習した2次元拡散モデルから事前知識を統合する新しい3次元移動パイプラインを提案する。
パイプラインは2つの重要なステージで構成されています。
2つ目は、スタイリングされたキービュー間のインスタンスレベルの一貫性を効果的に活用し、それを3D表現に転送する、インスタンスレベルのスタイル転送である。
論文 参考訳(メタデータ) (2025-09-04T16:40:44Z) - G3DST: Generalizing 3D Style Transfer with Neural Radiance Fields across Scenes and Styles [45.92812062685523]
既存の3Dスタイル転送の方法は、シングルまたは複数スタイルのシーンごとの広範な最適化が必要である。
本研究では, シーンごとの最適化やスタイルごとの最適化を必要とせずに, NeRF からスタイリングされた新しいビューをレンダリングすることで, 既存の手法の限界を克服する。
以上の結果から,本手法はシーンごとの手法に匹敵する視覚的品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-24T08:04:19Z) - Style-NeRF2NeRF: 3D Style Transfer From Style-Aligned Multi-View Images [54.56070204172398]
本稿では,3次元シーンをスタイリングするための簡易かつ効果的なパイプラインを提案する。
我々は、スタイル整列画像-画像拡散モデルにより生成されたスタイリング画像を用いて、ソースNeRFモデルを精細化し、3Dスタイルの転送を行う。
本手法は,現実の3Dシーンに多彩な芸術的スタイルを,競争力のある品質で伝達できることを実証する。
論文 参考訳(メタデータ) (2024-06-19T09:36:18Z) - ArtNeRF: A Stylized Neural Field for 3D-Aware Cartoonized Face Synthesis [11.463969116010183]
ArtNeRFは、3D対応のGANから派生した新しい顔スタイリングフレームワークである。
スタイル整合性を改善するために,スタイリングされた顔と三分岐判別器モジュールを合成する表現的ジェネレータを提案する。
実験により、ArtNeRFは任意のスタイルで高品質な3D対応マンガの顔を生成するのに多用途であることが示された。
論文 参考訳(メタデータ) (2024-04-21T16:45:35Z) - FPRF: Feed-Forward Photorealistic Style Transfer of Large-Scale 3D
Neural Radiance Fields [23.705795612467956]
FPRFは、任意の複数のスタイルの参照イメージを最適化することなく、大規模な3Dシーンをスタイリングする。
FPRFは、多彩な参照画像を持つ大規模シーンに対して、好適なフォトリアリスティック品質の3Dシーンスタイリングを実現する。
論文 参考訳(メタデータ) (2024-01-10T19:27:28Z) - MM-NeRF: Multimodal-Guided 3D Multi-Style Transfer of Neural Radiance Field [23.050381521558414]
MM-NeRFと呼ばれる新しいマルチモーダル誘導型3次元NeRFの多次元転送を提案する。
MM-NeRFは、マルチモーダルスタイルの一貫性を維持するために、マルチモーダルガイダンスを統一された空間に計画し、3Dスタイル化を導くためにマルチモーダル特徴を抽出する。
複数の実世界のデータセットで実験したところ、MM-NeRFはマルチモーダルガイダンスによる高品質な3Dマルチスタイルのスタイリングを実現している。
論文 参考訳(メタデータ) (2023-09-24T11:04:50Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。