論文の概要: RecurGS: Interactive Scene Modeling via Discrete-State Recurrent Gaussian Fusion
- arxiv url: http://arxiv.org/abs/2512.18386v1
- Date: Sat, 20 Dec 2025 14:53:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.31257
- Title: RecurGS: Interactive Scene Modeling via Discrete-State Recurrent Gaussian Fusion
- Title(参考訳): RecurGS:離散状態リカレントガウス核融合によるインタラクティブシーンモデリング
- Authors: Wenhao Hu, Haonan Zhou, Zesheng Li, Liu Liu, Jiacheng Dong, Zhizhong Su, Gaoang Wang,
- Abstract要約: RecurGSは、離散ガウスのシーン状態を単一の進化的表現に統合する、再帰的な融合フレームワークである。
酸素化可視性融合モジュールは、安定領域を固定しつつ、新しく観察された領域を選択的に包含する。
当社のフレームワークは,更新効率を大幅に向上した高品質な再構築を実現する。
- 参考スコア(独自算出の注目度): 21.761449995572757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 3D scene representations have enabled high-fidelity novel view synthesis, yet adapting to discrete scene changes and constructing interactive 3D environments remain open challenges in vision and robotics. Existing approaches focus solely on updating a single scene without supporting novel-state synthesis. Others rely on diffusion-based object-background decoupling that works on one state at a time and cannot fuse information across multiple observations. To address these limitations, we introduce RecurGS, a recurrent fusion framework that incrementally integrates discrete Gaussian scene states into a single evolving representation capable of interaction. RecurGS detects object-level changes across consecutive states, aligns their geometric motion using semantic correspondence and Lie-algebra based SE(3) refinement, and performs recurrent updates that preserve historical structures through replay supervision. A voxelized, visibility-aware fusion module selectively incorporates newly observed regions while keeping stable areas fixed, mitigating catastrophic forgetting and enabling efficient long-horizon updates. RecurGS supports object-level manipulation, synthesizes novel scene states without requiring additional scans, and maintains photorealistic fidelity across evolving environments. Extensive experiments across synthetic and real-world datasets demonstrate that our framework delivers high-quality reconstructions with substantially improved update efficiency, providing a scalable step toward continuously interactive Gaussian worlds.
- Abstract(参考訳): 近年の3Dシーン表現の進歩により、高忠実な新規ビュー合成が可能になったが、離散的なシーン変化に適応し、インタラクティブな3D環境の構築は、視覚とロボティクスにおけるオープンな課題のままである。
既存のアプローチは、新しい状態合成をサポートすることなく、単一のシーンを更新することのみに焦点を当てている。
拡散に基づくオブジェクト-背景の疎結合は、一度に1つの状態に作用し、複数の観測で情報を融合することができない。
これらの制約に対処するために、離散ガウスシーン状態を段階的に統合し、相互作用可能な単一の進化的表現に再帰的に統合する再帰的融合フレームワークRecurGSを紹介する。
RecurGSは連続状態間のオブジェクトレベルの変化を検出し、意味対応とリー代数に基づくSE(3)改良を用いて幾何学的な動きを整列し、リプレイの監督を通じて歴史的構造を保存するための更新を行う。
酸素化可視性融合モジュールは、安定した領域を固定し、破滅的な忘れを緩和し、効率的な長期更新を可能にしながら、新しく観察された領域を選択的に組み込む。
RecurGSはオブジェクトレベルの操作をサポートし、追加のスキャンを必要とせずに新しいシーン状態を合成し、進化する環境全体にわたってフォトリアリスティックな忠実さを維持する。
合成および実世界のデータセットにわたる大規模な実験により、我々のフレームワークは、更新効率を大幅に改善した高品質な再構築を提供し、継続的な対話型ガウス世界に向けたスケーラブルなステップを提供する。
関連論文リスト
- UniSplat: Unified Spatio-Temporal Fusion via 3D Latent Scaffolds for Dynamic Driving Scene Reconstruction [26.278318116942526]
We present UniSplat, a feed-forward framework that learns robust dynamic scene reconstruction through unified latent-temporal fusion。
実世界のデータセットの実験では、UniSplatが新しい視点で最先端の合成を実現し、オリジナルカメラのカバレッジ外の視点に対して堅牢で高品質なレンダリングを提供することを示した。
論文 参考訳(メタデータ) (2025-11-06T17:49:39Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - IGFuse: Interactive 3D Gaussian Scene Reconstruction via Multi-Scans Fusion [15.837932667195037]
IGFuseは対話型ガウスシーンを複数のスキャンから観測することで再構成する新しいフレームワークである。
本手法は,ガウス場を意識したセグメンテーションを構築し,スキャン間の双方向光度・セマンティック一貫性を実現する。
IGFuseは、密度の高い観測や複雑なパイプラインを使わずに、高忠実なレンダリングとオブジェクトレベルのシーン操作を可能にする。
論文 参考訳(メタデータ) (2025-08-18T17:59:47Z) - Gaussian Mapping for Evolving Scenes [33.02977341856557]
本稿では,最新の変化を反映して連続的に3次元表現を更新する動的シーン適応機構を提案する。
また,できるだけ多くの情報を保存しながら,時代遅れの観測を破棄する新しい管理機構を提案する。
合成, 実世界の両方のデータセット上でガウス写像(GaME)を評価し, 美術品の状態よりも高精度であることが確認された。
論文 参考訳(メタデータ) (2025-06-07T20:04:54Z) - Dita: Scaling Diffusion Transformer for Generalist Vision-Language-Action Policy [73.75271615101754]
本稿では,Transformerアーキテクチャを活用した拡張性のあるフレームワークであるDitaについて紹介する。
Ditaはコンテキスト内コンディショニング(context conditioning)を採用しており、歴史的観察から生の視覚トークンと識別されたアクションをきめ細やかなアライメントを可能にする。
Ditaは、さまざまなカメラパースペクティブ、観察シーン、タスク、アクションスペースの横断的なデータセットを効果的に統合する。
論文 参考訳(メタデータ) (2025-03-25T15:19:56Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - Diffusion Transformer Policy [48.50988753948537]
本稿では,拡散変圧器ポリシー(Diffusion Transformer Policy)と呼ばれる多モード拡散変圧器を提案し,連続的なエンドエフェクタ動作をモデル化する。
トランスのスケーリング機能を活用することで、提案手法は、多種多様なロボットデータセットにわたる継続的エンドエフェクタアクションを効果的にモデル化することができる。
論文 参考訳(メタデータ) (2024-10-21T12:43:54Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。