論文の概要: GaussianUpdate: Continual 3D Gaussian Splatting Update for Changing Environments
- arxiv url: http://arxiv.org/abs/2508.08867v1
- Date: Tue, 12 Aug 2025 11:50:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.410128
- Title: GaussianUpdate: Continual 3D Gaussian Splatting Update for Changing Environments
- Title(参考訳): Gaussianのアップデート: 環境変更のための連続的な3Dガウシアンスプレイティングアップデート
- Authors: Lin Zeng, Boming Zhao, Jiarui Hu, Xujie Shen, Ziqiang Dang, Hujun Bao, Zhaopeng Cui,
- Abstract要約: 本稿では,3次元ガウス表現と連続学習を組み合わせた新しい手法を提案する。
GustafUpdateは、新しいマルチステージアップデート戦略を通じて、さまざまなタイプの変更を明示的にモデル化する。
本稿では,画像の保存を必要とせずに自己認識型更新を可能にする,生成的再生による可視性を考慮した連続学習手法を提案する。
- 参考スコア(独自算出の注目度): 44.642480925608794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novel view synthesis with neural models has advanced rapidly in recent years, yet adapting these models to scene changes remains an open problem. Existing methods are either labor-intensive, requiring extensive model retraining, or fail to capture detailed types of changes over time. In this paper, we present GaussianUpdate, a novel approach that combines 3D Gaussian representation with continual learning to address these challenges. Our method effectively updates the Gaussian radiance fields with current data while preserving information from past scenes. Unlike existing methods, GaussianUpdate explicitly models different types of changes through a novel multi-stage update strategy. Additionally, we introduce a visibility-aware continual learning approach with generative replay, enabling self-aware updating without the need to store images. The experiments on the benchmark dataset demonstrate our method achieves superior and real-time rendering with the capability of visualizing changes over different times
- Abstract(参考訳): ニューラルモデルを用いた新しいビュー合成は近年急速に進歩しているが、シーン変更にこれらのモデルを適用することは未解決の問題である。
既存の方法は労働集約的であり、広範囲なモデル再訓練を必要とするか、時間とともに詳細なタイプの変更を捕捉できないかのいずれかである。
本稿では,3次元ガウス表現と連続学習を組み合わせた新しいアプローチであるガウス更新を提案する。
過去のシーンから情報を保存しながら,現在のデータでガウス放射界を効果的に更新する手法を提案する。
既存のメソッドとは異なり、GaussianUpdateは、新しいマルチステージアップデート戦略を通じて、さまざまなタイプの変更を明示的にモデル化する。
さらに、生成的再生を伴う可視性を考慮した連続学習手法を導入し、画像を保存することなく自己認識型更新を可能にする。
ベンチマークデータセットの実験は、異なる時間における変化を可視化する能力により、我々の手法が優れたリアルタイムレンダリングを実現することを実証している。
関連論文リスト
- HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting [10.497667917243852]
ODE-GSは、動的3次元シーンを予測するために、3次元ガウス格子と潜時神経常微分方程式(ODE)を統一する新しい手法である。
以上の結果から, 連続潜時ダイナミクスは複雑な3次元シーンの予測に強力で実用的な方法であることが示された。
論文 参考訳(メタデータ) (2025-06-05T18:02:30Z) - FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - CTRL-GS: Cascaded Temporal Residue Learning for 4D Gaussian Splatting [28.308077474731594]
動的シーンのための4次元ガウススプラッティングの新規拡張を提案する。
動的シーンを「ビデオ・セグメンテーション・フレーム」構造に分解し、セグメントを光学的フローで動的に調整する。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2025-05-23T19:01:55Z) - UniGS: Modeling Unitary 3D Gaussians for Novel View Synthesis from Sparse-view Images [20.089890859122168]
我々は,新しい3次元ガウス再構成と新しいビュー合成モデルであるUniGSを紹介する。
UniGSは、任意の数のスパースビュー画像から3Dガウスの高忠実度表現を予測する。
論文 参考訳(メタデータ) (2024-10-17T03:48:02Z) - Variational Bayes Gaussian Splatting [44.43761190929142]
3Dガウシアン・スプラッティングはガウシアンの混合物を用いて3Dシーンをモデル化するための有望なアプローチとして登場した。
本稿では,モデルパラメータに対する変分推論としてガウススプレートをトレーニングするための新しい手法である変分ベイズ・ガウス・スプラッティングを提案する。
実験の結果,VBGSは静的データセット上での最先端性能だけでなく,逐次ストリームされた2Dおよび3Dデータからの連続的な学習も可能であった。
論文 参考訳(メタデータ) (2024-10-04T16:52:03Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - Effective Data Augmentation With Diffusion Models [45.18188726287581]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Gait Recognition in the Wild with Multi-hop Temporal Switch [81.35245014397759]
野生での歩行認識は、より実践的な問題であり、マルチメディアとコンピュータビジョンのコミュニティの注目を集めています。
本稿では,現実のシーンにおける歩行パターンの効果的な時間的モデリングを実現するために,新しいマルチホップ時間スイッチ方式を提案する。
論文 参考訳(メタデータ) (2022-09-01T10:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。