論文の概要: OnlineSplatter: Pose-Free Online 3D Reconstruction for Free-Moving Objects
- arxiv url: http://arxiv.org/abs/2510.20605v1
- Date: Thu, 23 Oct 2025 14:37:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.130938
- Title: OnlineSplatter: Pose-Free Online 3D Reconstruction for Free-Moving Objects
- Title(参考訳): OnlineSplatter:Pse-free Online 3D Reconstruction for Free-Moving Objects
- Authors: Mark He Huang, Lin Geng Foo, Christian Theobalt, Ying Sun, De Wen Soh,
- Abstract要約: OnlineSplatterは、RGBフレームから直接高品質でオブジェクト中心の3Dガウシアンを生成する新しいフレームワークである。
提案手法は,第1フレームを用いて再構成をアンカーし,高密度ガウス原始体を通して対象表現を漸進的に洗練する。
我々のコアコントリビューションは、潜伏した外見幾何学キーと明示的な方向キーを組み合わせたデュアルキーメモリモジュールです。
- 参考スコア(独自算出の注目度): 58.38338242973447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Free-moving object reconstruction from monocular video remains challenging, particularly without reliable pose or depth cues and under arbitrary object motion. We introduce OnlineSplatter, a novel online feed-forward framework generating high-quality, object-centric 3D Gaussians directly from RGB frames without requiring camera pose, depth priors, or bundle optimization. Our approach anchors reconstruction using the first frame and progressively refines the object representation through a dense Gaussian primitive field, maintaining constant computational cost regardless of video sequence length. Our core contribution is a dual-key memory module combining latent appearance-geometry keys with explicit directional keys, robustly fusing current frame features with temporally aggregated object states. This design enables effective handling of free-moving objects via spatial-guided memory readout and an efficient sparsification mechanism, ensuring comprehensive yet compact object coverage. Evaluations on real-world datasets demonstrate that OnlineSplatter significantly outperforms state-of-the-art pose-free reconstruction baselines, consistently improving with more observations while maintaining constant memory and runtime.
- Abstract(参考訳): モノキュラービデオからの自由移動物体の再構成は、特に信頼できるポーズや深さのキューや任意の物体の動きなしでは困難である。
高品質でオブジェクト中心の3DガウスアンをRGBフレームから直接生成する新しいオンラインフィードフォワードフレームワークであるOnlineSplatterを紹介する。
提案手法は,第1フレームを用いて再構成をアンカーし,高密度ガウス原始体を通してオブジェクト表現を漸進的に洗練し,ビデオシーケンス長に関わらず一定の計算コストを維持する。
我々のコアコントリビューションは、潜伏した外見幾何学キーと明示的な方向キーを組み合わせたデュアルキーメモリモジュールであり、時間的に集約されたオブジェクト状態と、現在のフレーム機能を堅牢に融合させる。
この設計により、空間誘導型メモリリードアウトと効率的なスペーシング機構により、オブジェクトの移動を効果的に行うことができ、包括的かつコンパクトなオブジェクトカバレッジを確保することができる。
実世界のデータセットの評価によると、OnlineSplatterは最先端のポーズなしリビルドベースラインを大幅に上回っており、一定のメモリとランタイムを維持しながら、継続的に監視を改善している。
関連論文リスト
- HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - Online 3D Scene Reconstruction Using Neural Object Priors [83.14204014687938]
本稿では,RGB-Dビデオシーケンスが与えられたオブジェクトのレベルにおいて,オンラインでシーンを再構成する問題に対処する。
本稿では,新しい対象部品が明らかになれば,オブジェクト中心の暗黙表現を継続的に更新する特徴グリッド機構を提案する。
提案手法は, 再建精度と完全性の観点から, 最先端のニューラル暗黙モデルより優れている。
論文 参考訳(メタデータ) (2025-03-24T17:09:36Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - SUP-NeRF: A Streamlined Unification of Pose Estimation and NeRF for Monocular 3D Object Reconstruction [15.166003559787915]
我々は,オブジェクトポース推定とNeRFに基づくオブジェクト再構成の合体であるSUP-NeRFを提案する。
SUP-NeRFは物体の次元推定を分離し、スケールと深さのあいまいさを解決するために精細化を行う。
SUP-NeRFは、nuScenesデータセットの再構成とポーズ推定の両方を行う。
論文 参考訳(メタデータ) (2024-03-23T03:56:25Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。