論文の概要: Style4D-Bench: A Benchmark Suite for 4D Stylization
- arxiv url: http://arxiv.org/abs/2508.19243v1
- Date: Tue, 26 Aug 2025 17:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.945688
- Title: Style4D-Bench: A Benchmark Suite for 4D Stylization
- Title(参考訳): Style4D-Bench: 4Dスティル化のためのベンチマークスイート
- Authors: Beiqi Chen, Shuai Shao, Haitang Feng, Jianhuang Lai, Jianlou Si, Guangcong Wang,
- Abstract要約: Style4D-Benchは4Dスタイリング用に設計された最初のベンチマークスイートである。
空間的忠実度、時間的コヒーレンス、多視点一貫性を測定する。
提案するStyle4Dは, 4D Gaussian Splatting上に構築された新しいフレームワークである。
- 参考スコア(独自算出の注目度): 46.615893095394426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Style4D-Bench, the first benchmark suite specifically designed for 4D stylization, with the goal of standardizing evaluation and facilitating progress in this emerging area. Style4D-Bench comprises: 1) a comprehensive evaluation protocol measuring spatial fidelity, temporal coherence, and multi-view consistency through both perceptual and quantitative metrics, 2) a strong baseline that make an initial attempt for 4D stylization, and 3) a curated collection of high-resolution dynamic 4D scenes with diverse motions and complex backgrounds. To establish a strong baseline, we present Style4D, a novel framework built upon 4D Gaussian Splatting. It consists of three key components: a basic 4DGS scene representation to capture reliable geometry, a Style Gaussian Representation that leverages lightweight per-Gaussian MLPs for temporally and spatially aware appearance control, and a Holistic Geometry-Preserved Style Transfer module designed to enhance spatio-temporal consistency via contrastive coherence learning and structural content preservation. Extensive experiments on Style4D-Bench demonstrate that Style4D achieves state-of-the-art performance in 4D stylization, producing fine-grained stylistic details with stable temporal dynamics and consistent multi-view rendering. We expect Style4D-Bench to become a valuable resource for benchmarking and advancing research in stylized rendering of dynamic 3D scenes. Project page: https://becky-catherine.github.io/Style4D . Code: https://github.com/Becky-catherine/Style4D-Bench .
- Abstract(参考訳): Style4D-Benchは、4Dスタイリング用に特別に設計された最初のベンチマークスイートであり、この新興分野における評価の標準化と進歩の促進を目的としている。
Style4D-Bench:
1) 空間的忠実度, 時間的コヒーレンス, 多視点一貫性を知覚的, 定量的に測定する包括的評価プロトコル。
2)4Dスタイリゼーションの最初の試みを行う強力なベースライン、及び
3)多彩な動きと複雑な背景を持つ高解像度ダイナミック4Dシーンのキュレートコレクション。
強力なベースラインを確立するために,4Dガウススプラッティングを基盤とした新しいフレームワークであるStyle4Dを提案する。
基本的な4DGSシーン表現は、信頼性のある幾何学を捉える、スタイルガウス表現は、時間的および空間的に意識された外観制御のために、軽量なガウス毎のMLPを活用する、ホロスティック幾何学保存スタイル転送モジュールは、コントラスト的なコヒーレンス学習と構造的コンテンツ保存を通じて時空間の一貫性を高めるように設計されている。
Style4D-Benchの広範囲な実験により、Style4Dは4Dスタイル化において最先端のパフォーマンスを実現し、安定した時間的ダイナミックスと一貫したマルチビューレンダリングを備えたきめ細かなスタイリスティックな細部を生み出すことが示されている。
Style4D-Benchは、ダイナミックな3Dシーンのスタイル化レンダリングの研究とベンチマークのための貴重なリソースになることを期待しています。
プロジェクトページ: https://becky-catherine.github.io/Style4D
コード:https://github.com/Becky-catherine/Style4D-Bench
関連論文リスト
- Free4D: Tuning-free 4D Scene Generation with Spatial-Temporal Consistency [49.875459658889355]
Free4Dは、単一の画像から4Dシーンを生成するためのチューニング不要のフレームワークである。
我々の重要な洞察は、一貫した4次元シーン表現のために、事前訓練された基礎モデルを蒸留することである。
結果の4D表現はリアルタイムで制御可能なレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-03-26T17:59:44Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - 4DStyleGaussian: Zero-shot 4D Style Transfer with Gaussian Splatting [15.456479631131522]
任意のスタイル参照のリアルタイムスタイリングを実現するための新しい4Dスタイル転送フレームワークである4DStyleGaussianを紹介する。
提案手法は,高効率・時空間整合性を有する4次元シナリオの高品質・ゼロショットスタイリングを実現する。
論文 参考訳(メタデータ) (2024-10-14T12:03:00Z) - 4DGen: Grounded 4D Content Generation with Spatial-temporal Consistency [118.15258850780417]
textbf4DGenは、4Dコンテンツ作成のための新しいフレームワークである。
我々のパイプラインは、制御可能な4D生成を容易にし、ユーザがモノクロビデオで動きを指定したり、画像から映像への世代を適用できる。
既存のビデオから4Dのベースラインと比較すると,入力信号の忠実な再構成には優れた結果が得られる。
論文 参考訳(メタデータ) (2023-12-28T18:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。