論文の概要: Advances in Radiance Field for Dynamic Scene: From Neural Field to Gaussian Field
- arxiv url: http://arxiv.org/abs/2505.10049v2
- Date: Thu, 22 May 2025 02:33:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 12:25:14.972892
- Title: Advances in Radiance Field for Dynamic Scene: From Neural Field to Gaussian Field
- Title(参考訳): ダイナミックシーンのためのラジアンスフィールドの進歩:ニューラルフィールドからガウスフィールドへ
- Authors: Jinlong Fan, Xuepu Zeng, Jing Zhang, Mingming Gong, Yuxiang Yang, Dacheng Tao,
- Abstract要約: 本研究では,放射場を用いた動的シーン表現に着目した200以上の論文の体系的分析を行った。
我々は,多種多様な方法論的アプローチを統一的な表現的枠組みの下で組織し,永続的な課題の批判的検討と有望な研究方向性を結論づける。
- 参考スコア(独自算出の注目度): 85.12359852781216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic scene representation and reconstruction have undergone transformative advances in recent years, catalyzed by breakthroughs in neural radiance fields and 3D Gaussian splatting techniques. While initially developed for static environments, these methodologies have rapidly evolved to address the complexities inherent in 4D dynamic scenes through an expansive body of research. Coupled with innovations in differentiable volumetric rendering, these approaches have significantly enhanced the quality of motion representation and dynamic scene reconstruction, thereby garnering substantial attention from the computer vision and graphics communities. This survey presents a systematic analysis of over 200 papers focused on dynamic scene representation using radiance field, spanning the spectrum from implicit neural representations to explicit Gaussian primitives. We categorize and evaluate these works through multiple critical lenses: motion representation paradigms, reconstruction techniques for varied scene dynamics, auxiliary information integration strategies, and regularization approaches that ensure temporal consistency and physical plausibility. We organize diverse methodological approaches under a unified representational framework, concluding with a critical examination of persistent challenges and promising research directions. By providing this comprehensive overview, we aim to establish a definitive reference for researchers entering this rapidly evolving field while offering experienced practitioners a systematic understanding of both conceptual principles and practical frontiers in dynamic scene reconstruction.
- Abstract(参考訳): 動的シーン表現と再構成は近年, ニューラルラディアンスフィールドの突破口と3次元ガウススプラッティング技術により, 変革的な進歩を遂げている。
最初は静的環境向けに開発されたが、これらの手法は急速に進化し、4次元のダイナミックなシーンに固有の複雑さに対処している。
異なるボリュームレンダリングの革新と組み合わさって、これらのアプローチは動きの表現と動的なシーン再構成の質を大幅に向上させ、コンピュータビジョンやグラフィックコミュニティからかなりの注目を集めている。
本研究は,暗黙の神経表現から明示的なガウス原始体へのスペクトルを網羅し,放射場を用いた動的シーン表現に焦点を当てた200以上の論文を体系的に分析した。
動作表現のパラダイム、シーンダイナミクスの再現技術、補助情報統合戦略、時間的一貫性と物理的妥当性を保証する正規化アプローチなど、複数のクリティカルレンズを用いてこれらの作業の分類と評価を行う。
我々は,多種多様な方法論的アプローチを統一的な表現的枠組みの下で組織し,永続的な課題の批判的検討と有望な研究方向性を結論づける。
この包括的概要を提供することにより、この急速に発展する分野に入る研究者にとって決定的な基準を確立するとともに、経験豊富な実践者が動的シーン再構築における概念的原則と実践的フロンティアの両方を体系的に理解することを目指している。
関連論文リスト
- Dynamic Scene Reconstruction: Recent Advance in Real-time Rendering and Streaming [7.250878248686215]
2次元画像からのダイナミックシーンの表現とレンダリングは、コンピュータビジョンとグラフィックスの基本的な問題である。
このサーベイは、動的なシーン表現とレンダリングの進化と進歩を包括的にレビューする。
我々は、既存のアプローチを体系的に要約し、それらのコア原則に従って分類し、関連するデータセットをコンパイルし、これらのベンチマークにおける様々なメソッドのパフォーマンスを比較し、この急速に進化する分野における課題と今後の研究方向性を探る。
論文 参考訳(メタデータ) (2025-03-11T08:29:41Z) - Eye Motion Matters for 3D Face Reconstruction [13.633246294557765]
視覚領域のダイナミックな特徴を捉えるために,局所的ダイナミックロスを補完するアイランドマーク調整モジュールを導入する。
我々のモジュールはランドマークのフレキシブルな調整を可能にし、様々な目の状態の正確な再現を可能にします。
論文 参考訳(メタデータ) (2024-01-18T01:47:55Z) - Diffusion Priors for Dynamic View Synthesis from Monocular Videos [59.42406064983643]
ダイナミックノベルビュー合成は、ビデオ内の視覚的コンテンツの時間的進化を捉えることを目的としている。
まず、ビデオフレーム上に予め訓練されたRGB-D拡散モデルをカスタマイズ手法を用いて微調整する。
動的および静的なニューラルレイディアンス場を含む4次元表現に、微調整されたモデルから知識を蒸留する。
論文 参考訳(メタデータ) (2024-01-10T23:26:41Z) - Single-shot Tomography of Discrete Dynamic Objects [1.1407697960152927]
ダイナミックトモグラフィーにおける高分解能時間像の再構成法を提案する。
本研究の意義は、断層撮影における動的過程の可視化と解析の改善にまで及んでいる。
論文 参考訳(メタデータ) (2023-11-09T10:52:02Z) - DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization [67.85434518679382]
幾何学構造と物体中心学習を統一した3次元シーン生成モデルDynaVolを提案する。
鍵となるアイデアは、シーンの3D特性を捉えるために、オブジェクト中心のボキセル化を実行することである。
ボクセルの機能は標準空間の変形関数を通じて時間とともに進化し、グローバルな表現学習の基礎を形成する。
論文 参考訳(メタデータ) (2023-04-30T05:29:28Z) - Neural Fields in Visual Computing and Beyond [54.950885364735804]
機械学習の最近の進歩は、座標ベースニューラルネットワークを用いた視覚コンピューティング問題の解決への関心が高まっている。
ニューラルネットワークは、3D形状と画像の合成、人体のアニメーション、3D再構成、ポーズ推定に成功している。
本報告は、文脈、数学的基礎、および、ニューラルネットワークに関する文献の広範なレビューを提供する。
論文 参考訳(メタデータ) (2021-11-22T18:57:51Z) - Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes [70.76742458931935]
本稿では,動的シーンを外観・幾何学・3次元シーン動作の時間変化連続関数としてモデル化する新しい表現を提案する。
私たちの表現は、観測された入力ビューに適合するようにニューラルネットワークを介して最適化されます。
我々の表現は、細い構造、ビュー依存効果、自然な動きの度合いなどの複雑な動的シーンに利用できることを示す。
論文 参考訳(メタデータ) (2020-11-26T01:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。