論文の概要: Tessellation GS: Neural Mesh Gaussians for Robust Monocular Reconstruction of Dynamic Objects
- arxiv url: http://arxiv.org/abs/2512.07381v1
- Date: Mon, 08 Dec 2025 10:16:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.831214
- Title: Tessellation GS: Neural Mesh Gaussians for Robust Monocular Reconstruction of Dynamic Objects
- Title(参考訳): Tessellation GS: 動的物体のロバストな単分子再構成のためのニューラルネットワークガウス
- Authors: Shuohan Tao, Boyao Zhou, Hanzhang Tu, Yuwang Wang, Yebin Liu,
- Abstract要約: 3D Gaussian Splatting (GS) は、ポーズされた画像列から高度に写実的なシーン再構築を可能にするが、視点外挿に苦慮する。
本稿では,メッシュ面に固定された2次元GS構造を持つテッセルレーションGSを提案する。
本手法は,2次元ガウス関数を局所領域に制約し,メッシュ面上の階層的ニューラル特徴を通じてそれらの特性を推定する。
- 参考スコア(独自算出の注目度): 41.62908563782648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (GS) enables highly photorealistic scene reconstruction from posed image sequences but struggles with viewpoint extrapolation due to its anisotropic nature, leading to overfitting and poor generalization, particularly in sparse-view and dynamic scene reconstruction. We propose Tessellation GS, a structured 2D GS approach anchored on mesh faces, to reconstruct dynamic scenes from a single continuously moving or static camera. Our method constrains 2D Gaussians to localized regions and infers their attributes via hierarchical neural features on mesh faces. Gaussian subdivision is guided by an adaptive face subdivision strategy driven by a detail-aware loss function. Additionally, we leverage priors from a reconstruction foundation model to initialize Gaussian deformations, enabling robust reconstruction of general dynamic objects from a single static camera, previously extremely challenging for optimization-based methods. Our method outperforms previous SOTA method, reducing LPIPS by 29.1% and Chamfer distance by 49.2% on appearance and mesh reconstruction tasks.
- Abstract(参考訳): 3D Gaussian Splatting (GS) は、ポーズされた画像列から高度に光写実的シーン再構築を可能にするが、その異方性に起因する視点外挿に苦慮し、特にスパースビューやダイナミックシーン再構成において、過度に適合し、一般化を損なう。
本稿では,メッシュ面に固定された2次元GS構造を持つテッセルレーションGSを提案する。
本手法は,2次元ガウス関数を局所領域に制約し,メッシュ面上の階層的ニューラル特徴を通じてそれらの特性を推定する。
ガウス分割は、細部認識損失関数によって駆動される適応的な顔分割戦略によって導かれる。
さらに、再構成基礎モデルからの事前情報を利用してガウス変形を初期化し、単一の静的カメラから一般的な動的オブジェクトを頑健に再構築する。
提案手法は従来のSOTA法よりも優れ,LPIPSを29.1%,Chamfer距離を49.2%削減した。
関連論文リスト
- Laplacian Analysis Meets Dynamics Modelling: Gaussian Splatting for 4D Reconstruction [9.911802466255653]
本稿では,ハイブリッドな明示的関数を持つ動的3DGSフレームワークを提案する。
本手法は, 複雑な動的シーンを再構築する際の最先端性能を実証し, 再現精度を向上する。
論文 参考訳(メタデータ) (2025-08-07T01:39:29Z) - SD-GS: Structured Deformable 3D Gaussians for Efficient Dynamic Scene Reconstruction [5.818188539758898]
複雑な動的シーン再構成のためのコンパクトで効率的な動的スプレイティングフレームワークSD-GSを提案する。
また,過度に再構成された高流動領域のアンカーを適応的に成長させる変形認識型密度化戦略を提案する。
実験の結果,SD-GSはモデルサイズを60%削減し,FPSを100%改善することがわかった。
論文 参考訳(メタデータ) (2025-07-10T06:35:03Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。