論文の概要: ReCon-GS: Continuum-Preserved Guassian Streaming for Fast and Compact Reconstruction of Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2509.24325v1
- Date: Mon, 29 Sep 2025 06:23:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.779835
- Title: ReCon-GS: Continuum-Preserved Guassian Streaming for Fast and Compact Reconstruction of Dynamic Scenes
- Title(参考訳): ReCon-GS: 動的シーンの高速かつコンパクトな再構成のための連続保存型グアシアンストリーミング
- Authors: Jiaye Fu, Qiankun Gao, Chengxiang Wen, Yanmin Wu, Siwei Ma, Jiaqi Zhang, Jian Zhang,
- Abstract要約: ReCon-GSは、高忠実なオンライン動的シーン再構築とリアルタイムレンダリングを可能にするストレージ対応フレームワークである。
本稿では,ReCon-GSがトレーニング効率を約15%向上し,FVV合成品質が向上することを示す。
同等のレンダリング品質では、ReCon-GSは最先端の方法と比較して、メモリ要求を50%以上削減する。
- 参考スコア(独自算出の注目度): 41.108974064267436
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Online free-viewpoint video (FVV) reconstruction is challenged by slow per-frame optimization, inconsistent motion estimation, and unsustainable storage demands. To address these challenges, we propose the Reconfigurable Continuum Gaussian Stream, dubbed ReCon-GS, a novel storage-aware framework that enables high fidelity online dynamic scene reconstruction and real-time rendering. Specifically, we dynamically allocate multi-level Anchor Gaussians in a density-adaptive fashion to capture inter-frame geometric deformations, thereby decomposing scene motion into compact coarse-to-fine representations. Then, we design a dynamic hierarchy reconfiguration strategy that preserves localized motion expressiveness through on-demand anchor re-hierarchization, while ensuring temporal consistency through intra-hierarchical deformation inheritance that confines transformation priors to their respective hierarchy levels. Furthermore, we introduce a storage-aware optimization mechanism that flexibly adjusts the density of Anchor Gaussians at different hierarchy levels, enabling a controllable trade-off between reconstruction fidelity and memory usage. Extensive experiments on three widely used datasets demonstrate that, compared to state-of-the-art methods, ReCon-GS improves training efficiency by approximately 15% and achieves superior FVV synthesis quality with enhanced robustness and stability. Moreover, at equivalent rendering quality, ReCon-GS slashes memory requirements by over 50% compared to leading state-of-the-art methods.
- Abstract(参考訳): オンライン自由視点ビデオ(FVV)の再構成は、フレーム単位の最適化が遅いこと、不整合運動推定、持続不可能なストレージ要求によって困難である。
これらの課題に対処するために,Reconfigurable Continuum Gaussian Stream(ReCon-GS)を提案する。
具体的には,マルチレベルアンカーガウスを密度適応的に動的に割り当て,フレーム間の幾何学的変形を捉えることにより,シーンの動きをコンパクトな粗大な表現に分解する。
そこで、我々は、オンデマンドアンカー再階層化による局所的な動き表現性を維持する動的階層再構成戦略を設計し、各階層レベルに先立って変換を限定する階層内変形継承による時間的一貫性を確保する。
さらに,Anchor Gaussianの密度を異なる階層レベルで柔軟に調整し,再構成忠実度とメモリ使用量とのトレードオフを制御可能なストレージ対応最適化機構を導入する。
広く使用されている3つのデータセットに対する大規模な実験により、ReCon-GSは最先端の手法と比較して、トレーニング効率を約15%改善し、堅牢性と安定性を向上したFVV合成品質を向上することを示した。
さらに、同等のレンダリング品質で、ReCon-GSは最先端の方法と比較して、メモリ要求を50%以上削減する。
関連論文リスト
- Progressive Flow-inspired Unfolding for Spectral Compressive Imaging [11.638690628451647]
符号化開口スナップショット分光画像(CASSI)は、単一の2次元圧縮計測から3次元ハイパースペクトル画像(HSI)を取得する。
近年の深層展開ネットワーク (DUN) はCASSI再建の最先端を達成している。
拡散軌跡と流れの整合性に着想を得て,新しい軌道制御可能な展開フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-15T16:10:50Z) - SD-GS: Structured Deformable 3D Gaussians for Efficient Dynamic Scene Reconstruction [5.818188539758898]
複雑な動的シーン再構成のためのコンパクトで効率的な動的スプレイティングフレームワークSD-GSを提案する。
また,過度に再構成された高流動領域のアンカーを適応的に成長させる変形認識型密度化戦略を提案する。
実験の結果,SD-GSはモデルサイズを60%削減し,FPSを100%改善することがわかった。
論文 参考訳(メタデータ) (2025-07-10T06:35:03Z) - RGE-GS: Reward-Guided Expansive Driving Scene Reconstruction via Diffusion Priors [54.81109375939306]
RGE-GSは、拡散に基づく生成と報酬誘導ガウス積分を相乗化する新しい拡張的再構築フレームワークである。
本稿では,復元フェーズに先立って一貫したパターンを識別・優先順位付けする報奨ネットワークを提案する。
復元過程において,シーン収束度に応じてガウス最適化の進捗を自動的に調整する学習戦略を考案した。
論文 参考訳(メタデータ) (2025-06-28T08:02:54Z) - EvolvingGS: High-Fidelity Streamable Volumetric Video via Evolving 3D Gaussian Representation [14.402479944396665]
EvolvingGSは、まずターゲットフレームに合わせるためにガウスモデルを変形させ、最小点加算/減算で洗練する2段階戦略である。
漸進的に進化する表現の柔軟性のため,本手法はフレーム単位と時間単位の品質指標の両方で既存手法より優れている。
我々の手法は、特に複雑な人間のパフォーマンスを持つ拡張シーケンスにおいて、動的シーン再構成の最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-07T06:01:07Z) - Evolving High-Quality Rendering and Reconstruction in a Unified Framework with Contribution-Adaptive Regularization [27.509109317973817]
3D Gaussian Splatting (3DGS)は、高品質なレンダリングと高速な推論速度で注目されている。
従来の手法は主に幾何学的正則化に焦点を当てており、プリミティブベースのフレームワークやデュアルモデルフレームワークを含む一般的なアプローチがある。
本稿では,高画質表面再構成を実現するために,適応正規化を利用した統一モデルであるCarGSを提案する。
論文 参考訳(メタデータ) (2025-03-02T12:51:38Z) - Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - ReMatching Dynamic Reconstruction Flow [55.272357926111454]
この研究は、動的再構成モデルに変形前処理を組み込むことにより、再構成品質を改善するために設計されたReMatchingフレームワークを導入している。
提案手法では,既存の動的再構成パイプラインをシームレスに補うためのマッチング手順を提案する。
合成・実世界の動的シーンを含む一般的なベンチマーク評価では, 現状の手法を改良することで, 再現精度が向上することが示されている。
論文 参考訳(メタデータ) (2024-11-01T16:09:33Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。