論文の概要: Splatography: Sparse multi-view dynamic Gaussian Splatting for filmmaking challenges
- arxiv url: http://arxiv.org/abs/2511.05152v1
- Date: Fri, 07 Nov 2025 11:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.737827
- Title: Splatography: Sparse multi-view dynamic Gaussian Splatting for filmmaking challenges
- Title(参考訳): Splatography:Sparse Multi-view dynamic Gaussian Splatting for filmmaking Challenge
- Authors: Adrian Azzarelli, Nantheera Anantrasirichai, David R Bull,
- Abstract要約: Deformable Gaussian Splatting (GS)は、高密度多視点ビデオ(MVV)から、標準GS表現を変形させることで、光リアルな3次元再構成を実現する。
本研究では,標準GSを前景と背景の部品に分割する手法を提案する。
提案手法は,3次元シーンのモデルサイズの半分のPSNRを最大3PSNR高い精度で生成する。
- 参考スコア(独自算出の注目度): 6.1973784462444685
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deformable Gaussian Splatting (GS) accomplishes photorealistic dynamic 3-D reconstruction from dense multi-view video (MVV) by learning to deform a canonical GS representation. However, in filmmaking, tight budgets can result in sparse camera configurations, which limits state-of-the-art (SotA) methods when capturing complex dynamic features. To address this issue, we introduce an approach that splits the canonical Gaussians and deformation field into foreground and background components using a sparse set of masks for frames at t=0. Each representation is separately trained on different loss functions during canonical pre-training. Then, during dynamic training, different parameters are modeled for each deformation field following common filmmaking practices. The foreground stage contains diverse dynamic features so changes in color, position and rotation are learned. While, the background containing film-crew and equipment, is typically dimmer and less dynamic so only changes in point position are learned. Experiments on 3-D and 2.5-D entertainment datasets show that our method produces SotA qualitative and quantitative results; up to 3 PSNR higher with half the model size on 3-D scenes. Unlike the SotA and without the need for dense mask supervision, our method also produces segmented dynamic reconstructions including transparent and dynamic textures. Code and video comparisons are available online: https://interims-git.github.io/
- Abstract(参考訳): Deformable Gaussian Splatting (GS)は、高密度多視点ビデオ(MVV)から、標準GS表現を変形させることで、光リアルな3次元再構成を実現する。
しかしながら、フィルム製造において、厳密な予算は、複雑なダイナミックな特徴をキャプチャする際の最先端(SotA)メソッドを制限する、スパースカメラ構成をもたらす可能性がある。
この問題に対処するため,本研究では,標準ガウス面と変形場を,t=0のフレーム用スパースマスクを用いて,前景および背景成分に分割する手法を提案する。
各表現は、標準前訓練中に異なる損失関数で個別に訓練される。
次に, 動的トレーニングにおいて, 共通のフィルム加工法に従って, 変形場毎に異なるパラメータをモデル化する。
前景のステージには様々な動的特徴が含まれており、色、位置、回転の変化が学習される。
一方、フィルムクルーと機器を含む背景は、通常暗く、動的でないため、点位置の変化のみが学習される。
3次元および2.5次元のエンターテイメントデータセットを用いた実験により,SotAの質的,定量的な結果が得られた。
SotAと異なり、密集マスクの監督を必要とせず、透明でダイナミックなテクスチャを含むセグメント化された動的再構成も生成する。
コードとビデオの比較はオンラインで公開されている。
関連論文リスト
- DynSUP: Dynamic Gaussian Splatting from An Unposed Image Pair [41.78277294238276]
本稿では,ガウスアンを動的環境に適合させるために,事前のポーズを伴わずに2つの画像しか利用できない手法を提案する。
この戦略は、ダイナミックシーンを断片的に剛性成分に分解し、ダイナミックオブジェクトのカメラのポーズと動きを共同で推定する。
合成と実世界の両方のデータセットに対する実験により、我々の手法は最先端のアプローチを大きく上回っていることが示された。
論文 参考訳(メタデータ) (2024-12-01T15:25:33Z) - PG-SLAM: Photo-realistic and Geometry-aware RGB-D SLAM in Dynamic Environments [49.38692556283867]
ガウススプラッティングを拡張した写真リアリスティックかつ幾何学的RGB-D SLAM法を提案する。
本手法は,1)非剛体人や剛体物を含む動的前景のマッピング,2)静的背景の再構築,3)カメラのローカライズを行うための3つの主要モジュールから構成される。
実世界の様々なデータセットに対する実験により、カメラのローカライゼーションとシーン表現の観点から、我々の手法が最先端のアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T12:00:55Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - SWinGS: Sliding Windows for Dynamic 3D Gaussian Splatting [7.553079256251747]
我々は動的シーンを再構築するために3次元ガウススプラッティングを拡張した。
我々は、競争力のある定量的性能を持つ一般的な動的シーンの高品質なレンダリングを作成する。
我々の手法は動的インタラクティブなビューアでリアルタイムで見ることができる。
論文 参考訳(メタデータ) (2023-12-20T03:54:03Z) - DeformGS: Scene Flow in Highly Deformable Scenes for Deformable Object Manipulation [66.7719069053058]
DeformGSは、複数のカメラからダイナミックなシーンを同時撮影することで、高度に変形可能なシーンのシーンフローを復元するアプローチである。
DeformGSは最先端と比較して平均55.8%の3Dトラッキングを改善している。
十分なテクスチャで、DeformGSは1.5 x 1.5 mの布の上で3.3mmの中央値追跡誤差を達成している。
論文 参考訳(メタデータ) (2023-11-30T18:53:03Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Deep 3D Mask Volume for View Synthesis of Dynamic Scenes [49.45028543279115]
120FPSのカスタム10カメラリグでキャプチャしたマルチビュービデオデータセットを提案する。
データセットには、屋外シーンにおけるさまざまな視覚効果と人間の相互作用を示す96の高品質なシーンが含まれている。
我々は,静的カメラで捉えた動的シーンの双眼映像から時間的に安定な視線外挿を可能にする新しいアルゴリズムであるDeep 3D Mask Volumeを開発した。
論文 参考訳(メタデータ) (2021-08-30T17:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。