論文の概要: ChronoGS: Disentangling Invariants and Changes in Multi-Period Scenes
- arxiv url: http://arxiv.org/abs/2511.18794v1
- Date: Mon, 24 Nov 2025 05:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.044901
- Title: ChronoGS: Disentangling Invariants and Changes in Multi-Period Scenes
- Title(参考訳): クロノGS:多周波シーンにおける異方性不変量と変化
- Authors: Zhongtao Wang, Jiaqi Dai, Qingtian Zhu, Yilong Li, Mai Su, Fei Zhu, Meng Gai, Shaorong Wang, Chengwei Pan, Yisong Chen, Guoping Wang,
- Abstract要約: 時間的に変調されたガウス表現であるクロノGSを導入し、アンカー足場内の全ての周期を再構築する。
ChronoGSは、再構築品質と時間的一貫性において、ベースラインを一貫して上回ることを示した。
- 参考スコア(独自算出の注目度): 21.94404265718666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-period image collections are common in real-world applications. Cities are re-scanned for mapping, construction sites are revisited for progress tracking, and natural regions are monitored for environmental change. Such data form multi-period scenes, where geometry and appearance evolve. Reconstructing such scenes is an important yet underexplored problem. Existing pipelines rely on incompatible assumptions: static and in-the-wild methods enforce a single geometry, while dynamic ones assume smooth motion, both failing under long-term, discontinuous changes. To solve this problem, we introduce ChronoGS, a temporally modulated Gaussian representation that reconstructs all periods within a unified anchor scaffold. It's also designed to disentangle stable and evolving components, achieving temporally consistent reconstruction of multi-period scenes. To catalyze relevant research, we release ChronoScene dataset, a benchmark of real and synthetic multi-period scenes, capturing geometric and appearance variation. Experiments demonstrate that ChronoGS consistently outperforms baselines in reconstruction quality and temporal consistency. Our code and the ChronoScene dataset are publicly available at https://github.com/ZhongtaoWang/ChronoGS.
- Abstract(参考訳): 実世界のアプリケーションでは、多周期画像収集が一般的である。
都市は地図作成のために再スキャンされ、建設現場は進捗追跡のために再調査され、自然地域は環境変化のために監視されている。
このようなデータは、幾何と外観が進化する多周期的なシーンを形成する。
このようなシーンの再構築は重要だが未解決の問題である。
静的およびイン・ザ・ワイルドの手法は単一の幾何学を強制する一方、動的パイプラインはスムーズな動きを仮定し、どちらも長期的、不連続な変化の下で失敗する。
この問題を解決するために,時間的に変調されたガウス表現であるクロノGSを導入し,アンカー足場内の全ての周期を再構築する。
また、安定して進化するコンポーネントをアンタングルして、時間的に一貫した複数のシーンの再構築を実現するように設計されています。
関連する研究を触媒するため,実・合成多周期シーンのベンチマークであるChronoSceneデータセットを公開し,幾何学的および外観的変動を捉えた。
ChronoGSは、再構築品質と時間的一貫性において、ベースラインを一貫して上回ることを示した。
私たちのコードとChronoSceneデータセットはhttps://github.com/ZhongtaoWang/ChronoGS.comで公開されています。
関連論文リスト
- LTGS: Long-Term Gaussian Scene Chronology From Sparse View Updates [20.57134931668659]
スパースビュー更新からの長期ガウスシーン時間について提案する。
我々は急激な動きと微妙な環境変動にもかかわらず、シーンの長期の時系列を強くモデル化する。
私たちのフレームワークは、単純な変換を通じて、複数の時間ステップで一般化できます。
論文 参考訳(メタデータ) (2025-10-10T21:36:49Z) - STD-GS: Exploring Frame-Event Interaction for SpatioTemporal-Disentangled Gaussian Splatting to Reconstruct High-Dynamic Scene [54.418259038624406]
既存の手法ではフレームカメラのシーンと直接一致させるために統一表現モデル(例えばガウシアン)を採用している。
しかし、この統一パラダイムは、フレームの特徴と背景とオブジェクト間の不連続な空間的特徴により、オブジェクトの潜在的時間的特徴に失敗する。
本研究では,フレームカメラを補うイベントカメラを導入し,高ダイナミックなシーン再構成のための時分割型ガウススプレイティングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-29T09:32:06Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z) - Nothing Stands Still: A Spatiotemporal Benchmark on 3D Point Cloud Registration Under Large Geometric and Temporal Change [82.31647863785923]
人工空間の3次元幾何学地図の構築は、基本的なコンピュータビジョンとロボット工学である。
Not Stands Still (NSS)ベンチマークは、大きな空間的および時間的変化を行う3Dシーンの時間的登録に焦点を当てている。
NSSの一環として,建設中または改修中の大規模建築屋内環境において,3次元点雲のデータセットを連続的に取得する。
論文 参考訳(メタデータ) (2023-11-15T20:09:29Z) - Neural Scene Chronology [79.51094408119148]
我々は、視点、照明、時間の独立した制御で写真リアルなレンダリングをレンダリングできる、時間変化の3Dモデルを再構築することを目指している。
本研究では,画像ごとの照明を埋め込んだ時空間放射場として,時間的に変化するシーン変化を学習ステップ関数のセットを用いて符号化する。
論文 参考訳(メタデータ) (2023-06-13T17:59:58Z) - Temporally Consistent Transformers for Video Generation [80.45230642225913]
正確なビデオを生成するには、アルゴリズムは世界の空間的および時間的依存関係を理解する必要がある。
時間依存性のあるビデオ生成を厳格に評価するために、複雑なデータに関する確立されたベンチマークは存在しない。
本稿では,長期間の一貫性を著しく向上し,サンプリング時間を短縮するTemporally Consistent Transformer(TECO)を提案する。
論文 参考訳(メタデータ) (2022-10-05T17:15:10Z) - TimesNet: Temporal 2D-Variation Modeling for General Time Series
Analysis [80.56913334060404]
時系列解析は、天気予報、異常検出、行動認識などの応用において非常に重要である。
従来の手法では、1D時系列から直接これを達成しようと試みていた。
複雑な経時的変化を、複数の経時的変化と経時的変化に明らかにする。
論文 参考訳(メタデータ) (2022-10-05T12:19:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。