論文の概要: HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis
- arxiv url: http://arxiv.org/abs/2506.19291v1
- Date: Tue, 24 Jun 2025 03:54:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.478769
- Title: HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis
- Title(参考訳): HoliGS: 立体視合成のためのホロスティックガウススプレイティング
- Authors: Xiaoyuan Wang, Yizhou Zhao, Botao Ye, Xiaojun Shan, Weijie Lyu, Lu Qi, Kelvin C. K. Chan, Yinxiao Li, Ming-Hsuan Yang,
- Abstract要約: 本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
- 参考スコア(独自算出の注目度): 59.25751939710903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose HoliGS, a novel deformable Gaussian splatting framework that addresses embodied view synthesis from long monocular RGB videos. Unlike prior 4D Gaussian splatting and dynamic NeRF pipelines, which struggle with training overhead in minute-long captures, our method leverages invertible Gaussian Splatting deformation networks to reconstruct large-scale, dynamic environments accurately. Specifically, we decompose each scene into a static background plus time-varying objects, each represented by learned Gaussian primitives undergoing global rigid transformations, skeleton-driven articulation, and subtle non-rigid deformations via an invertible neural flow. This hierarchical warping strategy enables robust free-viewpoint novel-view rendering from various embodied camera trajectories by attaching Gaussians to a complete canonical foreground shape (\eg, egocentric or third-person follow), which may involve substantial viewpoint changes and interactions between multiple actors. Our experiments demonstrate that \ourmethod~ achieves superior reconstruction quality on challenging datasets while significantly reducing both training and rendering time compared to state-of-the-art monocular deformable NeRFs. These results highlight a practical and scalable solution for EVS in real-world scenarios. The source code will be released.
- Abstract(参考訳): 本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する新しい変形可能なガウススプラッティングフレームワークHoliGSを提案する。
従来の4次元ガウススプラッティングや動的NeRFパイプラインとは異なり、この手法は逆ガウススプラッティング変形ネットワークを利用して大規模でダイナミックな環境を正確に再構築する。
具体的には、各シーンを静的な背景と時間変化の物体に分解し、各シーンは、大域的な剛性変換、骨格駆動の調音、そして可逆的ニューラルフローによる微妙な非剛性変形を行う学習されたガウス原始体によって表現される。
この階層的なワープ戦略は、ガウシアンを完全な正準前景(例えば、エゴセントリック、サードパーソンフォロー)にアタッチすることで、複数のアクター間の実質的な視点変化や相互作用を伴って、様々なエンボディカメラ軌跡からの堅牢な自由視点ノベルビューレンダリングを可能にする。
実験により, 現状の単分子変形型NeRFと比較して, トレーニング時間とレンダリング時間の両方を著しく低減し, 挑戦的データセットの再現性に優れることを示した。
これらの結果は、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションを強調します。
ソースコードはリリースされます。
関連論文リスト
- RoGSplat: Learning Robust Generalizable Human Gaussian Splatting from Sparse Multi-View Images [39.03889696169877]
RoGSplatは、スパースマルチビュー画像から見えない人間の高忠実な新しいビューを合成するための新しいアプローチである。
提案手法は,新しいビュー合成とクロスデータセットの一般化において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-03-18T12:18:34Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - FreeSplat: Generalizable 3D Gaussian Splatting Towards Free-View Synthesis of Indoor Scenes [50.534213038479926]
FreeSplatは、長いシーケンス入力から自由視点合成まで、幾何学的に一貫した3Dシーンを再構築することができる。
ビュー数に関係なく、広いビュー範囲にわたる堅牢なビュー合成を実現するための、シンプルで効果的なフリービュートレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-05-28T08:40:14Z) - Gaussian in the Wild: 3D Gaussian Splatting for Unconstrained Image Collections [12.807052947367692]
制約のない画像における光度変化と過渡オクルーダは、元のシーンを正確に再構築することが困難である。
ニューラルレージアンスフィールド(NeRF)におけるグローバルな外観特徴の導入による課題への先行的アプローチ
この事実に触発されて,3次元ガウス点を用いてシーンを再構築する手法であるGaussian in the wild (GS-W)を提案する。
論文 参考訳(メタデータ) (2024-03-23T03:55:41Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。