論文の概要: Proactive Scene Decomposition and Reconstruction
- arxiv url: http://arxiv.org/abs/2510.16272v1
- Date: Fri, 17 Oct 2025 23:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.925346
- Title: Proactive Scene Decomposition and Reconstruction
- Title(参考訳): プロアクティブなシーン分解と再構成
- Authors: Baicheng Li, Zike Yan, Dong Wu, Hongbin Zha,
- Abstract要約: 本稿では,シーンのプロアクティブな分解と再構築の新たな課題を定式化する。
我々は人間と物体の相互作用を反復的に分解し、環境を再構築する。
提案システムは動的環境における複数のタスクを効果的に統合する。
- 参考スコア(独自算出の注目度): 22.845403993200932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human behaviors are the major causes of scene dynamics and inherently contain rich cues regarding the dynamics. This paper formalizes a new task of proactive scene decomposition and reconstruction, an online approach that leverages human-object interactions to iteratively disassemble and reconstruct the environment. By observing these intentional interactions, we can dynamically refine the decomposition and reconstruction process, addressing inherent ambiguities in static object-level reconstruction. The proposed system effectively integrates multiple tasks in dynamic environments such as accurate camera and object pose estimation, instance decomposition, and online map updating, capitalizing on cues from human-object interactions in egocentric live streams for a flexible, progressive alternative to conventional object-level reconstruction methods. Aided by the Gaussian splatting technique, accurate and consistent dynamic scene modeling is achieved with photorealistic and efficient rendering. The efficacy is validated in multiple real-world scenarios with promising advantages.
- Abstract(参考訳): 人間の行動はシーン・ダイナミクスの主要な原因であり、本質的にはシーン・ダイナミクスに関する豊富な手がかりを含んでいる。
本稿では,人間と物体の相互作用を利用して環境を反復的に分解・再構築するオンライン手法である,能動的シーン分解・再構築の新たな課題を定式化する。
これらの意図的な相互作用を観察することにより、静的なオブジェクトレベルの再構築において固有の曖昧さに対処し、分解と再構築のプロセスを動的に洗練することができる。
提案システムは,従来のオブジェクトレベルの再構築手法に代わるフレキシブルでプログレッシブな代替手段として,カメラやオブジェクトのポーズ推定,インスタンスの分解,オンラインマップ更新などの動的環境における複数のタスクを効果的に統合する。
ガウススプラッティング技術に頼り、フォトリアリスティックかつ効率的なレンダリングにより、正確で一貫した動的シーンモデリングを実現する。
有効性は、有望な利点を持つ複数の実世界のシナリオで検証される。
関連論文リスト
- DynaSplat: Dynamic-Static Gaussian Splatting with Hierarchical Motion Decomposition for Scene Reconstruction [9.391616497099422]
我々は,ガウススプラッティングをダイナミックなシーンに拡張するアプローチであるDynaSplatを提案する。
我々は、変形オフセット統計と2次元運動流の整合性の融合により、シーン要素を静的または動的に分類する。
次に、粗い大域変換ときめ細かい局所運動の両方を捉える階層的な動きモデリング戦略を導入する。
論文 参考訳(メタデータ) (2025-06-11T15:13:35Z) - Robust Visual Localization via Semantic-Guided Multi-Scale Transformer [3.3106947066548167]
マルチスケール特徴学習とセマンティックシーン理解を組み合わせたフレームワークを提案する。
本手法では, 空間的変化に適応しつつ, 空間的精度を保ちながら, 幾何学的詳細と文脈的手がかりを融合する階層変換器を用いる。
論文 参考訳(メタデータ) (2025-06-10T07:44:53Z) - ReMatching Dynamic Reconstruction Flow [55.272357926111454]
この研究は、動的再構成モデルに変形前処理を組み込むことにより、再構成品質を改善するために設計されたReMatchingフレームワークを導入している。
提案手法では,既存の動的再構成パイプラインをシームレスに補うためのマッチング手順を提案する。
合成・実世界の動的シーンを含む一般的なベンチマーク評価では, 現状の手法を改良することで, 再現精度が向上することが示されている。
論文 参考訳(メタデータ) (2024-11-01T16:09:33Z) - Learn to Memorize and to Forget: A Continual Learning Perspective of Dynamic SLAM [17.661231232206028]
暗黙的な神経表現を伴う同時局所化とマッピング(SLAM)が注目されている。
動的環境のための新しいSLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T09:35:48Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - SMORE: Simultaneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - RobustFusion: Robust Volumetric Performance Reconstruction under
Human-object Interactions from Monocular RGBD Stream [27.600873320989276]
現実のシナリオでは、さまざまなオブジェクトと複雑な相互作用を持つ人間のパフォーマンスの高品質の4D再構築が不可欠です。
近年の進歩は、信頼性の高い性能回復には至っていない。
人間と物体のインタラクションシナリオのための堅牢なボリュームパフォーマンス再構築システムであるRobustFusionを提案する。
論文 参考訳(メタデータ) (2021-04-30T08:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。