論文の概要: Cross-Temporal 3D Gaussian Splatting for Sparse-View Guided Scene Update
- arxiv url: http://arxiv.org/abs/2512.00534v1
- Date: Sat, 29 Nov 2025 16:00:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.283016
- Title: Cross-Temporal 3D Gaussian Splatting for Sparse-View Guided Scene Update
- Title(参考訳): Sparse-View- Guided Scene Update のための時空間3次元ガウス平滑化
- Authors: Zeyuan An, Yanghang Xiao, Zhiying Leng, Frederick W. B. Li, Xiaohui Liang,
- Abstract要約: スパースビューからの3Dシーンの更新は、様々な現実世界のアプリケーションに不可欠である。
我々は,3Dシーンを効率的に再構築・更新するための新しいフレームワークであるクロステンポラル3Dガウススティング(Cross-Temporal 3DGS)を提案する。
実験結果から, 復元品質とデータ効率において, ベースライン法よりも顕著な改善が見られた。
- 参考スコア(独自算出の注目度): 17.581193784542357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Maintaining consistent 3D scene representations over time is a significant challenge in computer vision. Updating 3D scenes from sparse-view observations is crucial for various real-world applications, including urban planning, disaster assessment, and historical site preservation, where dense scans are often unavailable or impractical. In this paper, we propose Cross-Temporal 3D Gaussian Splatting (Cross-Temporal 3DGS), a novel framework for efficiently reconstructing and updating 3D scenes across different time periods, using sparse images and previously captured scene priors. Our approach comprises three stages: 1) Cross-temporal camera alignment for estimating and aligning camera poses across different timestamps; 2) Interference-based confidence initialization to identify unchanged regions between timestamps, thereby guiding updates; and 3) Progressive cross-temporal optimization, which iteratively integrates historical prior information into the 3D scene to enhance reconstruction quality. Our method supports non-continuous capture, enabling not only updates using new sparse views to refine existing scenes, but also recovering past scenes from limited data with the help of current captures. Furthermore, we demonstrate the potential of this approach to achieve temporal changes using only sparse images, which can later be reconstructed into detailed 3D representations as needed. Experimental results show significant improvements over baseline methods in reconstruction quality and data efficiency, making this approach a promising solution for scene versioning, cross-temporal digital twins, and long-term spatial documentation.
- Abstract(参考訳): 時間の経過とともに一貫した3Dシーンの表現を維持することは、コンピュータビジョンにおいて重要な課題である。
スパースビューから3Dシーンを更新することは、都市計画、災害評価、高密度スキャンがしばしば利用できない、あるいは実用的でない歴史的遺跡保存など、様々な現実世界の応用に不可欠である。
本稿では,異なる期間にまたがって3Dシーンを効率的に再構築・更新する新しいフレームワークであるクロステンポラル3Dガウス撮影(Cross-Temporal 3DGS)を提案する。
アプローチには3つの段階がある。
1)異なるタイムスタンプにまたがるカメラポーズの推定・調整のための時間的カメラアライメント
2) 干渉に基づく信頼度の初期化により、タイムスタンプ間の変化しない領域を識別し、更新を導く。
3)3次元シーンに過去の情報を反復的に統合し,再現性を向上させるプログレッシブ・クロステンポラル最適化を行う。
提案手法は非連続的なキャプチャをサポートし,新しいスパースビューを用いて既存のシーンを改良するだけでなく,現在のキャプチャの助けを借りて,限られたデータから過去のシーンを復元する。
さらに,スパース画像のみを用いて時間的変化を実現する手法の可能性を示す。
実験結果から, 再現品質とデータ効率において, ベースライン法よりも大幅に改善され, シーンバージョニング, 時間的デジタルツイン, 長期空間文書化に有望なソリューションとなった。
関連論文リスト
- LONG3R: Long Sequence Streaming 3D Reconstruction [29.79885827038617]
Long3Rは、より長いシーケンス上でのマルチビュー3Dシーン再構成をストリーミングするために設計された新しいモデルである。
本モデルでは,新たな観測値の更新と更新を繰り返すことで,リアルタイム処理を実現している。
実験により、LONG3Rは、特に長いシーケンスにおいて、最先端のストリーミング手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-07-24T09:55:20Z) - GaVS: 3D-Grounded Video Stabilization via Temporally-Consistent Local Reconstruction and Rendering [54.489285024494855]
ビデオの安定化は、元のユーザの動きの意図を保ちながら、望ましくないシャキネスを除去するので、ビデオ処理に欠かせない。
既存のアプローチは、運用するドメインによって、ユーザエクスペリエンスを低下させるいくつかの問題に悩まされます。
ビデオの安定化を時間的に一貫性のある局所的再構成とレンダリングのパラダイムとして再構成する,新しい3Dグラウンドアプローチである textbfGaVS を紹介する。
論文 参考訳(メタデータ) (2025-06-30T15:24:27Z) - PE3R: Perception-Efficient 3D Reconstruction [54.730257992806116]
Perception-Efficient 3D Reconstruction (PE3R) は、精度と効率の両立を図った新しいフレームワークである。
このフレームワークは3次元のセマンティックフィールド再構成において最小9倍のスピードアップを実現し、認識精度と再現精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-03-10T16:29:10Z) - Graph-Guided Scene Reconstruction from Images with 3D Gaussian Splatting [5.8452477457633485]
既存の手法には、精密なカメラポーズを入力に必要としたり、監督のために密集した視点を必要とするなど、様々な制限がある。
グラフ誘導型3Dシーン再構築フレームワークGraphGSを提案する。
画像から高忠実度な3D再構成を実現し,複数のデータセットにわたる定量的,定性的な評価により,最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-02-24T17:59:08Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [87.1077910795879]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - A Graph Attention Spatio-temporal Convolutional Network for 3D Human
Pose Estimation in Video [7.647599484103065]
我々は,アテンション機構を用いた局所的グローバル空間情報のモデリングにより,人間の骨格における制約の学習を改善する。
提案手法は, 奥行きのあいまいさと自己閉塞性を効果的に軽減し, 半上半身推定を一般化し, 2次元から3次元映像のポーズ推定における競合性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T14:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。