論文の概要: ParticleNeRF: Particle Based Encoding for Online Neural Radiance Fields
in Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2211.04041v1
- Date: Tue, 8 Nov 2022 06:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 17:04:56.714592
- Title: ParticleNeRF: Particle Based Encoding for Online Neural Radiance Fields
in Dynamic Scenes
- Title(参考訳): ParticleNeRF: 動的シーンにおけるオンラインニューラルラジアンスフィールドのためのパーティクルベース符号化
- Authors: Jad Abou-Chakra, Feras Dayoub, Niko S\"underhauf
- Abstract要約: 本稿では,オンライン方式で動的シーンを扱うためにNeRFを拡張した。
我々は粒子ベースのパラメトリック符号化を導入する。
特徴を宇宙空間に移動させることで、NeRFを変化シーンに漸進的に適応させることが示される。
- 参考スコア(独自算出の注目度): 6.166295570030645
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Neural Radiance Fields (NeRFs) are coordinate-based implicit representations
of 3D scenes that use a differentiable rendering procedure to learn a
representation of an environment from images. This paper extends NeRFs to
handle dynamic scenes in an online fashion. We do so by introducing a
particle-based parametric encoding, which allows the intermediate NeRF features
-- now coupled to particles in space -- to be moved with the dynamic geometry.
We backpropagate the NeRF's photometric reconstruction loss into the position
of the particles in addition to the features they are associated with. The
position gradients are interpreted as particle velocities and integrated into
positions using a position-based dynamics (PBS) physics system. Introducing PBS
into the NeRF formulation allows us to add collision constraints to the
particle motion and creates future opportunities to add other movement priors
into the system such as rigid and deformable body constraints. We show that by
allowing the features to move in space, we incrementally adapt the NeRF to the
changing scene.
- Abstract(参考訳): neural radiance fields(nerfs)は、3dシーンの座標ベースの暗黙的な表現であり、画像から環境の表現を学ぶために微分可能なレンダリング手順を使用する。
本稿では,オンライン方式で動的シーンを扱うためにNeRFを拡張した。
粒子ベースのパラメトリック符号化を導入することで、中間のNeRF特徴(現在は宇宙の粒子と結合している)を動的幾何学で移動させることができる。
我々は、NeRFの光度再構成損失を、関連する特徴に加えて粒子の位置にバックプロパゲートする。
位置勾配は粒子速度として解釈され、位置ベースの力学系(PBS)を用いて位置に統合される。
PBS を NeRF の定式化に導入することにより,粒子運動に衝突制約を加えることができ,剛性や変形性のある物体制約などのシステムに他の運動先行を付加する将来の機会が得られる。
特徴を宇宙空間に移動させることで、NeRFを変化シーンに漸進的に適応させることが示される。
関連論文リスト
- CTNeRF: Cross-Time Transformer for Dynamic Neural Radiance Field from Monocular Video [25.551944406980297]
複雑でダイナミックなシーンのモノクロ映像から高品質な新しいビューを生成するための新しいアプローチを提案する。
物体の動きの特徴を集約するために,時間領域と周波数領域の両方で動作するモジュールを導入する。
実験により,動的シーンデータセットにおける最先端手法に対する大幅な改善が示された。
論文 参考訳(メタデータ) (2024-01-10T00:40:05Z) - Dynamic Mesh-Aware Radiance Fields [75.59025151369308]
本稿では,メッシュとNeRFの双方向結合をレンダリングおよびシミュレーション時に設計する。
ハイブリッドシステムはメッシュ挿入のための視覚リアリズムの代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-08T20:18:18Z) - OD-NeRF: Efficient Training of On-the-Fly Dynamic Neural Radiance Fields [63.04781030984006]
ダイナミック・ニューラル・レイディアンス・フィールド(ダイナミック・ニューラル・レイディアンス・フィールド)は、3次元ダイナミック・シーンにおける新しいビュー・シンセサイザーにおいて印象的な結果を示した。
本研究では,ダイナミックシーンのストリーミングが可能な動的NeRFを効率よく訓練・レンダリングするOD-NeRFを提案する。
本アルゴリズムは,6FPSトレーニングと合成動的シーンのレンダリングのインタラクティブな高速化を実現し,実世界の動的シーンの最先端と比較して,大幅なスピードアップを実現している。
論文 参考訳(メタデータ) (2023-05-24T07:36:47Z) - Neural Residual Radiance Fields for Streamably Free-Viewpoint Videos [69.22032459870242]
本稿では,Residual Radiance Field(ReRF)という新しい手法を提案する。
このような戦略は品質を犠牲にすることなく大きな動きを扱えることを示す。
ReRFに基づいて,3桁の圧縮率を達成する特別なFVVを設計し,ダイナミックシーンの長期FVVのオンラインストリーミングをサポートするReRFプレーヤを提供する。
論文 参考訳(メタデータ) (2023-04-10T08:36:00Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。