論文の概要: LTGS: Long-Term Gaussian Scene Chronology From Sparse View Updates
- arxiv url: http://arxiv.org/abs/2510.09881v1
- Date: Fri, 10 Oct 2025 21:36:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.66596
- Title: LTGS: Long-Term Gaussian Scene Chronology From Sparse View Updates
- Title(参考訳): LTGSの長期的なガウスの風景年表
- Authors: Minkwan Kim, Seungmin Lee, Junho Kim, Young Min Kim,
- Abstract要約: スパースビュー更新からの長期ガウスシーン時間について提案する。
我々は急激な動きと微妙な環境変動にもかかわらず、シーンの長期の時系列を強くモデル化する。
私たちのフレームワークは、単純な変換を通じて、複数の時間ステップで一般化できます。
- 参考スコア(独自算出の注目度): 20.57134931668659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in novel-view synthesis can create the photo-realistic visualization of real-world environments from conventional camera captures. However, acquiring everyday environments from casual captures faces challenges due to frequent scene changes, which require dense observations both spatially and temporally. We propose long-term Gaussian scene chronology from sparse-view updates, coined LTGS, an efficient scene representation that can embrace everyday changes from highly under-constrained casual captures. Given an incomplete and unstructured Gaussian splatting representation obtained from an initial set of input images, we robustly model the long-term chronology of the scene despite abrupt movements and subtle environmental variations. We construct objects as template Gaussians, which serve as structural, reusable priors for shared object tracks. Then, the object templates undergo a further refinement pipeline that modulates the priors to adapt to temporally varying environments based on few-shot observations. Once trained, our framework is generalizable across multiple time steps through simple transformations, significantly enhancing the scalability for a temporal evolution of 3D environments. As existing datasets do not explicitly represent the long-term real-world changes with a sparse capture setup, we collect real-world datasets to evaluate the practicality of our pipeline. Experiments demonstrate that our framework achieves superior reconstruction quality compared to other baselines while enabling fast and light-weight updates.
- Abstract(参考訳): 新規ビュー合成の最近の進歩は、従来のカメラキャプチャーから現実の環境を写実的に可視化することができる。
しかし、日常の環境をカジュアルな捕獲から取得することは、空間的にも時間的にも密集した観察を必要とするシーンの頻繁な変化による課題に直面している。
比較的制約の少ないカジュアルキャプチャーから日々の変化を受け入れることができる効率的なシーン表現であるLTGSと命名されたスパースビュー更新からの長期ガウスシーン時間を提案する。
初期入力画像から得られた不完全かつ非構造的なガウススプティング表現を考慮し, 急激な動きと微妙な環境変動にもかかわらず, シーンの長期的時系列を忠実にモデル化する。
オブジェクトをテンプレートとして構築し、共有オブジェクトトラックに対する構造的、再利用可能な事前情報として機能する。
次に、オブジェクトテンプレートはさらに改良パイプラインを実行し、少数ショットの観測に基づいて、時間的に変化する環境に適応するように前者を変調する。
トレーニングが完了すると、単純な変換によって、フレームワークは複数の時間ステップにわたって一般化され、3D環境の時間的進化のスケーラビリティが大幅に向上します。
既存のデータセットは、スパースキャプチャのセットアップで、長期的な現実世界の変化を明示的に表現していないため、パイプラインの実用性を評価するために、現実のデータセットを収集します。
実験により,我々のフレームワークは,高速かつ軽量な更新を可能にしながら,他のベースラインに比べて優れた再構築品質を実現することが示された。
関連論文リスト
- STD-GS: Exploring Frame-Event Interaction for SpatioTemporal-Disentangled Gaussian Splatting to Reconstruct High-Dynamic Scene [54.418259038624406]
既存の手法ではフレームカメラのシーンと直接一致させるために統一表現モデル(例えばガウシアン)を採用している。
しかし、この統一パラダイムは、フレームの特徴と背景とオブジェクト間の不連続な空間的特徴により、オブジェクトの潜在的時間的特徴に失敗する。
本研究では,フレームカメラを補うイベントカメラを導入し,高ダイナミックなシーン再構成のための時分割型ガウススプレイティングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-29T09:32:06Z) - HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - CTRL-GS: Cascaded Temporal Residue Learning for 4D Gaussian Splatting [28.308077474731594]
動的シーンのための4次元ガウススプラッティングの新規拡張を提案する。
動的シーンを「ビデオ・セグメンテーション・フレーム」構造に分解し、セグメントを光学的フローで動的に調整する。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2025-05-23T19:01:55Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。