論文の概要: Differentiable Point-Based Radiance Fields for Efficient View Synthesis
- arxiv url: http://arxiv.org/abs/2205.14330v4
- Date: Wed, 5 Jul 2023 15:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 00:24:05.313040
- Title: Differentiable Point-Based Radiance Fields for Efficient View Synthesis
- Title(参考訳): 効率的なビュー合成のための微分点ベース放射場
- Authors: Qiang Zhang, Seung-Hwan Baek, Szymon Rusinkiewicz, Felix Heide
- Abstract要約: 本稿では,効率的な新規ビュー合成のための微分可能レンダリングアルゴリズムを提案する。
我々の手法は、トレーニングと推論の両方において、NeRFよりも最大300倍高速である。
ダイナミックなシーンでは,STNeRFよりも2桁早く,ほぼインタラクティブなレートでレンダリングを行う。
- 参考スコア(独自算出の注目度): 57.56579501055479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a differentiable rendering algorithm for efficient novel view
synthesis. By departing from volume-based representations in favor of a learned
point representation, we improve on existing methods more than an order of
magnitude in memory and runtime, both in training and inference. The method
begins with a uniformly-sampled random point cloud and learns per-point
position and view-dependent appearance, using a differentiable splat-based
renderer to evolve the model to match a set of input images. Our method is up
to 300x faster than NeRF in both training and inference, with only a marginal
sacrifice in quality, while using less than 10~MB of memory for a static scene.
For dynamic scenes, our method trains two orders of magnitude faster than
STNeRF and renders at near interactive rate, while maintaining high image
quality and temporal coherence even without imposing any temporal-coherency
regularizers.
- Abstract(参考訳): 効率的な新規ビュー合成のための微分可能レンダリングアルゴリズムを提案する。
学習点表現に賛成してボリュームベースの表現から離れることで、トレーニングと推論の両方において、メモリと実行時の桁違い以上の既存のメソッドを改善します。
この方法は、一様にサンプリングされたランダムな点クラウドから始まり、ポイント毎の位置とビュー依存の外観を学習し、微分可能なsplatベースのレンダラを使用して、一連の入力画像にマッチするモデルを発展させる。
提案手法は,トレーニングと推論の両方において最大300倍高速であり,品質の犠牲は少なく,静的シーンでは10mb以下のメモリを使用する。
ダイナミックなシーンでは,STNeRFより2桁早く,ほぼインタラクティブなレートでレンダリングし,時間的コヒーレンシの正則化を伴わずとも高画質と時間的コヒーレンスを維持する。
関連論文リスト
- Splatfacto-W: A Nerfstudio Implementation of Gaussian Splatting for Unconstrained Photo Collections [25.154665328053333]
Splatfacto-Wは、ガウスごとのニューラルカラー特徴と画像ごとの外観をレンダリングプロセスに組み込む、自明なアプローチである。
提案手法は,3DGSに比べて平均5.3dBのPak Signal-to-Noise Ratio(PSNR)を向上し,NeRF法に比べて150倍のトレーニング速度を向上し,3DGSと同様のレンダリング速度を実現する。
論文 参考訳(メタデータ) (2024-07-17T04:02:54Z) - D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - INPC: Implicit Neural Point Clouds for Radiance Field Rendering [5.64500060725726]
現実世界のシーンを再現し、新しい視点で合成するための新しいアプローチを提案する。
本研究では,連続オクツリー型確率場とマルチ解像度ハッシュグリッドにおける点雲を暗黙的に符号化するハイブリッドシーン表現を提案する。
本手法は,対話的なフレームレートで高速な推論を実現し,さらに性能を高めるために露骨な点雲を抽出することができる。
論文 参考訳(メタデータ) (2024-03-25T15:26:32Z) - Temporal Interpolation Is All You Need for Dynamic Neural Radiance
Fields [4.863916681385349]
本研究では,時間的特徴ベクトルに基づいて動的シーンのニューラルネットワークを学習する手法を提案する。
ニューラル表現では、複数のニューラルネットワークモジュールを介して時空間入力を抽出し、時間フレームに基づいてそれらを補間する。
グリッド表現では、時空間の特徴は4次元のハッシュグリッドを通して学習され、トレーニング時間を大幅に短縮する。
論文 参考訳(メタデータ) (2023-02-18T12:01:23Z) - Multi-Frequency-Aware Patch Adversarial Learning for Neural Point Cloud
Rendering [7.522462414919854]
ニューラルポイントクラウドレンダリングパイプラインを、新しいマルチ周波数対応パッチ対向学習フレームワークを通じて提示する。
提案手法は,実画像と合成画像のスペクトル差を最小化することにより,レンダリングの精度を向上させることを目的としている。
提案手法は,ニューラルポイントクラウドレンダリングにおける最先端の結果を有意差で生成する。
論文 参考訳(メタデータ) (2022-10-07T16:54:15Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - View Synthesis with Sculpted Neural Points [64.40344086212279]
暗黙の神経表現は印象的な視覚的品質を達成したが、計算効率に欠点がある。
本稿では,点雲を用いたビュー合成を行う新しい手法を提案する。
レンダリング速度を100倍以上速くしながら、NeRFよりも視覚的品質を向上する最初のポイントベース手法である。
論文 参考訳(メタデータ) (2022-05-12T03:54:35Z) - Sequential Place Learning: Heuristic-Free High-Performance Long-Term
Place Recognition [24.70946979449572]
学習ベースのCNN+LSTMアーキテクチャを開発し、バックプロパゲーションを通じてトレーニングし、視点および外観不変の場所認識を実現します。
我々のモデルは、新しい最先端パフォーマンス標準を設定しながら、15の古典的手法より優れています。
さらに, SPL は 729 km の経路において, 従来の方法よりも 70 倍高速に展開可能であることを示す。
論文 参考訳(メタデータ) (2021-03-02T22:57:43Z) - Displacement-Invariant Cost Computation for Efficient Stereo Matching [122.94051630000934]
ディープラーニング手法は、前例のない不一致の精度を得ることによって、ステレオマッチングのリーダーボードを支配してきた。
しかし、その推測時間は一般的に540p画像の秒数で遅い。
本研究では,4次元特徴量を必要としないEmphdisplacement-invariant cost moduleを提案する。
論文 参考訳(メタデータ) (2020-12-01T23:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。