論文の概要: 3D Scene Change Modeling With Consistent Multi-View Aggregation
- arxiv url: http://arxiv.org/abs/2512.22830v1
- Date: Sun, 28 Dec 2025 08:00:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.244433
- Title: 3D Scene Change Modeling With Consistent Multi-View Aggregation
- Title(参考訳): 連続多視点アグリゲーションを用いた3次元シーン変化モデリング
- Authors: Zirui Zhou, Junfeng Ni, Shujie Zhang, Yixin Chen, Siyuan Huang,
- Abstract要約: SCaR-3Dは、3次元シーン変化検出フレームワークであり、濃密な事前変化画像シーケンスとスパース的な後変化画像からオブジェクトレベルの変化を識別する。
提案手法は, 符号付き距離ベース2次元差分モジュールと, 投票, プルーニングによる多視点アグリゲーションからなる。
また,変化しない領域を保存しながら動的領域を選択的に更新する連続的なシーン再構築戦略も開発している。
- 参考スコア(独自算出の注目度): 18.547603626073585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Change detection plays a vital role in scene monitoring, exploration, and continual reconstruction. Existing 3D change detection methods often exhibit spatial inconsistency in the detected changes and fail to explicitly separate pre- and post-change states. To address these limitations, we propose SCaR-3D, a novel 3D scene change detection framework that identifies object-level changes from a dense-view pre-change image sequence and sparse-view post-change images. Our approach consists of a signed-distance-based 2D differencing module followed by multi-view aggregation with voting and pruning, leveraging the consistent nature of 3DGS to robustly separate pre- and post-change states. We further develop a continual scene reconstruction strategy that selectively updates dynamic regions while preserving the unchanged areas. We also contribute CCS3D, a challenging synthetic dataset that allows flexible combinations of 3D change types to support controlled evaluations. Extensive experiments demonstrate that our method achieves both high accuracy and efficiency, outperforming existing methods.
- Abstract(参考訳): 変化検出は、シーン監視、探索、継続的な再構築において重要な役割を果たす。
既存の3次元変化検出手法は、検出された変化に空間的不整合を示すことが多く、前と後の状態を明確に分離することができない。
これらの制約に対処するため,SCaR-3Dという3次元シーン変化検出フレームワークを提案する。
提案手法は, 符号付き距離ベース2D差分モジュールと, 投票とプルーニングによる多視点アグリゲーションから構成される。
さらに,変化しない領域を保存しながら動的領域を選択的に更新する連続的なシーン再構築戦略を開発した。
また、制御された評価をサポートするために、3D変更型の柔軟な組み合わせを可能にする、困難な合成データセットであるCS3Dもコントリビュートします。
大規模な実験により,本手法は精度と効率を両立し,既存手法よりも優れていることが示された。
関連論文リスト
- Mastering Regional 3DGS: Locating, Initializing, and Editing with Diverse 2D Priors [67.22744959435708]
3Dセマンティックパーシングは2Dに比べて性能が劣ることが多く、3D空間内でのターゲット操作がより困難になり、編集の忠実さが制限される。
本稿では,2次元拡散編集を利用して各ビューの修正領域を正確に同定し,次に3次元ローカライゼーションのための逆レンダリングを行う。
実験により,提案手法は最新技術の性能を実現し,最大4倍のスピードアップを実現した。
論文 参考訳(メタデータ) (2025-07-07T19:15:43Z) - Gaussian Difference: Find Any Change Instance in 3D Scenes [6.726861447317518]
3Dシーンにおけるインスタンスレベルの変更検出は、大きな課題を示す。
本稿では,現実シナリオの変化を検出する新しい手法を提案する。
提案手法は、検出精度の向上、照明変更に対する堅牢性、効率的な処理時間を提供する。
論文 参考訳(メタデータ) (2025-02-24T08:09:49Z) - Multi-View Pose-Agnostic Change Localization with Zero Labels [4.997375878454274]
複数の視点から情報を統合したラベルのないポーズに依存しない変化検出手法を提案する。
ポストチェンジシーンの5つの画像で、我々のアプローチは3DGSで追加の変更チャンネルを学習できる。
変更対応の3Dシーン表現により、見当たらない視点の正確な変更マスクの生成が可能となる。
論文 参考訳(メタデータ) (2024-12-05T06:28:54Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z) - The Change You Want to See [91.3755431537592]
同じシーンの2つのイメージが与えられた場合、その変更を自動的に検出できることは、様々な領域で実用的応用をもたらす。
画像対の「オブジェクトレベル」変化を、視点や照明の違いにかかわらず検出することを目的として、変化検出問題に取り組む。
論文 参考訳(メタデータ) (2022-09-28T18:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。