論文の概要: Time of the Flight of the Gaussians: Optimizing Depth Indirectly in Dynamic Radiance Fields
- arxiv url: http://arxiv.org/abs/2505.05356v1
- Date: Thu, 08 May 2025 15:45:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.944317
- Title: Time of the Flight of the Gaussians: Optimizing Depth Indirectly in Dynamic Radiance Fields
- Title(参考訳): ガウスの飛行時刻:動的放射場における深度を間接的に最適化する
- Authors: Runfeng Li, Mikhail Okunev, Zixuan Guo, Anh Ha Duong, Christian Richardt, Matthew O'Toole, James Tompkin,
- Abstract要約: 本稿では,C-ToFカメラを用いて動的シーンを再構成する手法を提案する。
この方法は、ニューラルアプローチと同じような、あるいはより良い精度を実現し、100倍高速である。
- 参考スコア(独自算出の注目度): 20.363006625978787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method to reconstruct dynamic scenes from monocular continuous-wave time-of-flight (C-ToF) cameras using raw sensor samples that achieves similar or better accuracy than neural volumetric approaches and is 100x faster. Quickly achieving high-fidelity dynamic 3D reconstruction from a single viewpoint is a significant challenge in computer vision. In C-ToF radiance field reconstruction, the property of interest-depth-is not directly measured, causing an additional challenge. This problem has a large and underappreciated impact upon the optimization when using a fast primitive-based scene representation like 3D Gaussian splatting, which is commonly used with multi-view data to produce satisfactory results and is brittle in its optimization otherwise. We incorporate two heuristics into the optimization to improve the accuracy of scene geometry represented by Gaussians. Experimental results show that our approach produces accurate reconstructions under constrained C-ToF sensing conditions, including for fast motions like swinging baseball bats. https://visual.cs.brown.edu/gftorf
- Abstract(参考訳): 本稿では,単眼連続波時間(C-ToF)カメラを用いて,ニューラルボリュームアプローチと同じような精度で100倍の精度で動的シーンを再構成する手法を提案する。
高忠実度動的3次元再構成を単一視点で迅速に達成することは、コンピュータビジョンにおいて重要な課題である。
C-ToFラジアンス場再構成では、興味深度が直接測定されないため、さらなる課題が生じる。
この問題は、3Dガウススプラッティングのような高速プリミティブなシーン表現を使用する場合の最適化に大きく、不便な影響をもたらす。
ガウシアンによって表現されるシーン幾何学の精度を向上させるために,最適化に2つのヒューリスティックを組み込んだ。
実験結果から, 野球バットの揺動などの高速動作を含む, 拘束されたC-ToFセンシング条件下での高精度な再構成が得られた。
https://visual.cs.brown.edu/gftorf
関連論文リスト
- 4D Gaussian Splatting with Scale-aware Residual Field and Adaptive Optimization for Real-time Rendering of Temporally Complex Dynamic Scenes [19.24815625343669]
SaRO-GSはリアルタイムレンダリングを実現する新しい動的シーン表現である。
時間的に複雑な動的シーンを扱うために,スケールアウェアなResidual Fieldを導入する。
我々の手法は最先端の性能を実証した。
論文 参考訳(メタデータ) (2024-12-09T08:44:19Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - CoherentGS: Sparse Novel View Synthesis with Coherent 3D Gaussians [18.42203035154126]
2次元画像空間で制御できる構造付きガウス表現を導入する。
次に、ガウス群、特にその位置を制約し、最適化中に独立に動くのを防ぐ。
我々は,様々な場面における最先端のスパースビュー NeRF ベースのアプローチと比較して,顕著な改善を示した。
論文 参考訳(メタデータ) (2024-03-28T15:27:13Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - GauFRe: Gaussian Deformation Fields for Real-time Dynamic Novel View Synthesis [16.733855781461802]
インプシット変形可能表現は、通常、標準空間と時間依存の変形場を持つ運動をモデル化する。
GauFReは、フォワードウォーピング変形を使用して、シーン幾何学の非剛体変換を明示的にモデル化する。
実験により,提案手法は従来の最先端のNeRF法やガウス法よりも高い効率と競争結果が得られることが示された。
論文 参考訳(メタデータ) (2023-12-18T18:59:03Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。