論文の概要: Dynamic Appearance Particle Neural Radiance Field
- arxiv url: http://arxiv.org/abs/2310.07916v3
- Date: Wed, 12 Feb 2025 04:19:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:46:11.171683
- Title: Dynamic Appearance Particle Neural Radiance Field
- Title(参考訳): 動的外見粒子ニューラルラジアンス場
- Authors: Ancheng Lin, Yusheng Xiang, Jun Li, Mukesh Prasad,
- Abstract要約: 本研究では3次元シーンにおける視覚的要素の運動をモデル化するための粒子ベース表現を導入した動的外観粒子ニューラルレイダンス場(DAP-NeRF)を提案する。
DAP-NeRFは静的場と動的場の重ね合わせからなる。
静的場、視覚的特徴、粒子の運動モデルを含む全てのコンポーネントは、シーンに関する事前の幾何学的知識のない単眼ビデオから学習される。
- 参考スコア(独自算出の注目度): 6.352750283309955
- License:
- Abstract: Neural Radiance Fields (NeRFs) have shown great potential in modeling 3D scenes. Dynamic NeRFs extend this model by capturing time-varying elements, typically using deformation fields. The existing dynamic NeRFs employ a similar Eulerian representation for both light radiance and deformation fields. This leads to a close coupling of appearance and motion and lacks a physical interpretation. In this work, we propose Dynamic Appearance Particle Neural Radiance Field (DAP-NeRF), which introduces particle-based representation to model the motions of visual elements in a dynamic 3D scene. DAP-NeRF consists of the superposition of a static field and a dynamic field. The dynamic field is quantized as a collection of appearance particles, which carries the visual information of a small dynamic element in the scene and is equipped with a motion model. All components, including the static field, the visual features and the motion models of particles, are learned from monocular videos without any prior geometric knowledge of the scene. We develop an efficient computational framework for the particle-based model. We also construct a new dataset to evaluate motion modeling. Experimental results show that DAP-NeRF is an effective technique to capture not only the appearance but also the physically meaningful motions in a 3D dynamic scene. Code is available at: https://github.com/Cenbylin/DAP-NeRF.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は3Dシーンをモデル化する大きな可能性を示している。
動的NeRFは、典型的には変形場を用いて、時間変化要素をキャプチャすることで、このモデルを拡張する。
既存の動的NeRFは、光放射と変形場の両方に類似したユーレリア表現を用いる。
これは外見と動きを密結合させ、物理的解釈を欠いている。
本研究では,動的3次元シーンにおける視覚的要素の運動をモデル化するための粒子ベース表現を導入した動的出現粒子ニューラルレイダンス場(DAP-NeRF)を提案する。
DAP-NeRFは静的場と動的場の重ね合わせからなる。
動的場は外観粒子の集合として定量化され、シーン内の小さな動的要素の視覚情報を伝達し、動きモデルを備える。
静的場、視覚的特徴、粒子の運動モデルを含む全てのコンポーネントは、シーンに関する事前の幾何学的知識のない単眼ビデオから学習される。
粒子モデルのための効率的な計算フレームワークを開発する。
また、動きモデリングを評価するための新しいデータセットを構築した。
実験結果から, DAP-NeRFは外見だけでなく, 3次元動的シーンにおける身体的に意味のある動きを捉えるのに有効な手法であることがわかった。
コードは、https://github.com/Cenbylin/DAP-NeRF.comで入手できる。
関連論文リスト
- DENSER: 3D Gaussians Splatting for Scene Reconstruction of Dynamic Urban Environments [0.0]
動的オブジェクトの表現を大幅に強化するフレームワークであるDENSERを提案する。
提案手法は最先端の手法を広いマージンで大幅に上回る。
論文 参考訳(メタデータ) (2024-09-16T07:11:58Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - D-TensoRF: Tensorial Radiance Fields for Dynamic Scenes [2.587781533364185]
動的シーンのための合成放射場D-TensoRFを提案する。
格子をランク1ベクトル成分(CP分解)またはローランク行列成分(MM分解)に分解する。
CP分解とMM分解を併用したD-TensoRFでは,トレーニング時間が短く,メモリフットプリントも著しく低かった。
論文 参考訳(メタデータ) (2022-12-05T15:57:55Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。