論文の概要: SharpTimeGS: Sharp and Stable Dynamic Gaussian Splatting via Lifespan Modulation
- arxiv url: http://arxiv.org/abs/2602.02989v1
- Date: Tue, 03 Feb 2026 01:50:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.184465
- Title: SharpTimeGS: Sharp and Stable Dynamic Gaussian Splatting via Lifespan Modulation
- Title(参考訳): SharpTimeGS:Lifespan Modulationによるシャープと安定な動的ガウススプレイティング
- Authors: Zhanfeng Liao, Jiajun Zhang, Hanzhang Tu, Zhixi Wang, Yunqi Gao, Hongwen Zhang, Yebin Liu,
- Abstract要約: 静的領域と動的領域の両方の時間適応モデリングを実現するライフスパン対応の4Dガウスフレームワークを提案する。
提案手法は,4K解像度までのリアルタイムレンダリングをサポートしながら,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 44.0897839648633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis of dynamic scenes is fundamental to achieving photorealistic 4D reconstruction and immersive visual experiences. Recent progress in Gaussian-based representations has significantly improved real-time rendering quality, yet existing methods still struggle to maintain a balance between long-term static and short-term dynamic regions in both representation and optimization. To address this, we present SharpTimeGS, a lifespan-aware 4D Gaussian framework that achieves temporally adaptive modeling of both static and dynamic regions under a unified representation. Specifically, we introduce a learnable lifespan parameter that reformulates temporal visibility from a Gaussian-shaped decay into a flat-top profile, allowing primitives to remain consistently active over their intended duration and avoiding redundant densification. In addition, the learned lifespan modulates each primitives' motion, reducing drift in long-lived static points while retaining unrestricted motion for short-lived dynamic ones. This effectively decouples motion magnitude from temporal duration, improving long-term stability without compromising dynamic fidelity. Moreover, we design a lifespan-velocity-aware densification strategy that mitigates optimization imbalance between static and dynamic regions by allocating more capacity to regions with pronounced motion while keeping static areas compact and stable. Extensive experiments on multiple benchmarks demonstrate that our method achieves state-of-the-art performance while supporting real-time rendering up to 4K resolution at 100 FPS on one RTX 4090.
- Abstract(参考訳): 動的シーンの新たなビュー合成は、光リアルな4次元再構成と没入型視覚体験の実現に不可欠である。
ガウス表現の最近の進歩は、リアルタイムレンダリングの品質を大幅に向上させたが、既存の手法は、表現と最適化の両方において、長期静的領域と短期動的領域のバランスを維持するのに苦慮している。
そこで本研究では,静的領域と動的領域の時間適応モデリングを実現する,ライフスパン対応の4DガウスフレームワークSharpTimeGSを提案する。
具体的には,ガウス型崩壊からの時間的可視性をフラットトッププロファイルに再構成する学習可能なライフスパンパラメータを導入する。
さらに、学習寿命は各プリミティブの動きを変調し、長寿命の静的な点におけるドリフトを減少させ、短寿命の動的点に対する制限のない動きを維持する。
これにより、運動の大きさを時間的から効果的に切り離すことができ、動的忠実さを損なうことなく長期的な安定性を向上させることができる。
さらに,静的領域をコンパクトかつ安定に保ちながら,運動が顕著な領域により多くのキャパシティを割り当てることで,静的領域と動的領域の最適化不均衡を緩和するライフスパン速度対応密度化戦略を設計する。
RTX 4090の1つのRTX 4090上で,100 FPSで4K解像度までのリアルタイムレンダリングをサポートしながら,本手法が最先端性能を実現することを示す。
関連論文リスト
- Latent Temporal Discrepancy as Motion Prior: A Loss-Weighting Strategy for Dynamic Fidelity in T2V [36.37746089367601]
本稿では,損失重み付け前の動きとしてLTD(Latent Temporal Disrepancy)を導入する。
LTDは潜在空間におけるフレーム・ツー・フレームの変動を測定し、安定した領域の定期的な最適化を維持しながら、高い差のある領域により大きなペナルティを割り当てる。
VBenchは3.31%,VMBenchは3.58%,強いベースラインは3.31%向上した。
論文 参考訳(メタデータ) (2026-01-28T11:27:23Z) - MoRel: Long-Range Flicker-Free 4D Motion Modeling via Anchor Relay-based Bidirectional Blending with Hierarchical Densification [10.799902862870288]
MoRelは、時間的に一貫したメモリ効率のモデリングのための新しいフレームワークである。
我々のアプローチは、時間的不連続を緩和し、成果物をひらめかせる。
境界メモリ使用率を維持しつつ、時間的コヒーレントでフリッカフリーなロングレンジ4D再構成を実現する。
論文 参考訳(メタデータ) (2025-12-10T02:49:09Z) - Towards Robust and Generalizable Continuous Space-Time Video Super-Resolution with Events [71.2439653098351]
連続時空ビデオスーパーSTVSRは、高解像度で高フレームのビデオを任意の時間スケールで再構成する能力への関心が高まっている。
EvEnhancerは、イベントストリームにカプセル化された高時間および高ダイナミックレンジのユニークな特性を結合する新しいアプローチである。
提案手法は,OODスケールでの一般化性を維持しつつ,合成および実世界の両方のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-10-04T15:23:07Z) - SplitGaussian: Reconstructing Dynamic Scenes via Visual Geometry Decomposition [14.381223353489062]
textbfSplitGaussianは、シーン表現を静的および動的コンポーネントに明示的に分解する新しいフレームワークである。
SplitGaussianは、レンダリング品質、幾何学的安定性、動き分離において、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-08-06T09:00:13Z) - VDEGaussian: Video Diffusion Enhanced 4D Gaussian Splatting for Dynamic Urban Scenes Modeling [68.65587507038539]
本稿では,動的都市景観モデリングのための拡散強調4次元ガウス平滑化フレームワークを提案する。
我々の重要な洞察は、テスト時間に適応したビデオ拡散モデルから頑健で時間的に一貫した事前情報を抽出することである。
提案手法は, 高速移動物体の動的モデリングを著しく向上させ, 2dBのPSNRゲインを近似的に達成する。
論文 参考訳(メタデータ) (2025-08-04T07:24:05Z) - Hierarchical Implicit Neural Emulators [20.09615751270837]
本稿では,長期予測精度を高めるマルチスケール暗黙的ニューラルエミュレータを提案する。
提案手法では, 圧縮速度の向上に先立って, 次の段階の圧縮速度の向上を推算する。
乱流流体力学の実験により,本手法は短期精度が高く,長期安定予測が得られた。
論文 参考訳(メタデータ) (2025-06-05T00:28:26Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。