論文の概要: CTRL-GS: Cascaded Temporal Residue Learning for 4D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2505.18306v1
- Date: Fri, 23 May 2025 19:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.334958
- Title: CTRL-GS: Cascaded Temporal Residue Learning for 4D Gaussian Splatting
- Title(参考訳): CTRL-GS: 4次元ガウス平滑化のための仮設時間残差学習
- Authors: Karly Hou, Wanhua Li, Hanspeter Pfister,
- Abstract要約: 動的シーンのための4次元ガウススプラッティングの新規拡張を提案する。
動的シーンを「ビデオ・セグメンテーション・フレーム」構造に分解し、セグメントを光学的フローで動的に調整する。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
- 参考スコア(独自算出の注目度): 28.308077474731594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Gaussian Splatting methods have emerged as a desirable substitute for prior Radiance Field methods for novel-view synthesis of scenes captured with multi-view images or videos. In this work, we propose a novel extension to 4D Gaussian Splatting for dynamic scenes. Drawing on ideas from residual learning, we hierarchically decompose the dynamic scene into a "video-segment-frame" structure, with segments dynamically adjusted by optical flow. Then, instead of directly predicting the time-dependent signals, we model the signal as the sum of video-constant values, segment-constant values, and frame-specific residuals, as inspired by the success of residual learning. This approach allows more flexible models that adapt to highly variable scenes. We demonstrate state-of-the-art visual quality and real-time rendering on several established datasets, with the greatest improvements on complex scenes with large movements, occlusions, and fine details, where current methods degrade most.
- Abstract(参考訳): 近年,マルチビュー画像やビデオで撮影されたシーンを新規に合成する手法として,レーダランスフィールド法に代わるガウス散乱法が好まれている。
本研究では,動的シーンのための4次元ガウススプラッティングの新規拡張を提案する。
残差学習からのアイデアに基づいて、動的シーンを階層的に「ビデオ・セグメンテーション・フレーム」構造に分解し、セグメントを光学的フローによって動的に調整する。
そして、時間依存的な信号を直接予測するのではなく、残差学習の成功に触発されたビデオコンスタント値、セグメントコンスタント値、フレーム固有残差の和として、信号をモデル化する。
このアプローチにより、高度に可変なシーンに適応するより柔軟なモデルが可能になる。
我々は、いくつかの確立されたデータセットに対して、最先端の視覚的品質とリアルタイムレンダリングを実演し、大きな動き、閉塞、そして現在のメソッドが最も劣化している細部を含む複雑なシーンを最大限に改善した。
関連論文リスト
- Efficient 4D Gaussian Stream with Low Rank Adaptation [8.69899446610606]
連続学習を用いた動的新規ビュー合成のための高度にスケーラブルな手法を提案する。
本手法は,ビデオフレームのチャンクで連続的に動的に再構成し,オフラインSOTA法に匹敵する高画質を維持しながら,ストリーミング帯域幅を90%削減する。
論文 参考訳(メタデータ) (2025-02-23T13:48:52Z) - GaussianVideo: Efficient Video Representation via Hierarchical Gaussian Splatting [28.981174430968643]
本稿では,3次元ガウススプラッティングと連続カメラモーションモデリングを組み合わせたニューラル表現を提案する。
実験結果から,我々の階層的学習と堅牢なカメラモーションモデリングが組み合わさって,時間的一貫性の強い複雑な動的シーンを捉えていることがわかった。
このメモリ効率のアプローチは、印象的な速度で高品質なレンダリングを実現する。
論文 参考訳(メタデータ) (2025-01-08T19:01:12Z) - 4D Gaussian Splatting with Scale-aware Residual Field and Adaptive Optimization for Real-time Rendering of Temporally Complex Dynamic Scenes [19.24815625343669]
SaRO-GSはリアルタイムレンダリングを実現する新しい動的シーン表現である。
時間的に複雑な動的シーンを扱うために,スケールアウェアなResidual Fieldを導入する。
我々の手法は最先端の性能を実証した。
論文 参考訳(メタデータ) (2024-12-09T08:44:19Z) - Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - SWinGS: Sliding Windows for Dynamic 3D Gaussian Splatting [7.553079256251747]
我々は動的シーンを再構築するために3次元ガウススプラッティングを拡張した。
我々は、競争力のある定量的性能を持つ一般的な動的シーンの高品質なレンダリングを作成する。
我々の手法は動的インタラクティブなビューアでリアルタイムで見ることができる。
論文 参考訳(メタデータ) (2023-12-20T03:54:03Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Leaping Into Memories: Space-Time Deep Feature Synthesis [93.10032043225362]
内部モデルから映像を合成するアーキテクチャ非依存の手法であるLEAPSを提案する。
我々は,Kineetics-400に基づく多種多様なアーキテクチャの進化的注目を反転させることにより,LEAPSの適用性を定量的かつ定性的に評価する。
論文 参考訳(メタデータ) (2023-03-17T12:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。