論文の概要: TSDF-Sampling: Efficient Sampling for Neural Surface Field using
Truncated Signed Distance Field
- arxiv url: http://arxiv.org/abs/2311.17878v1
- Date: Wed, 29 Nov 2023 18:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 20:23:42.673718
- Title: TSDF-Sampling: Efficient Sampling for Neural Surface Field using
Truncated Signed Distance Field
- Title(参考訳): TSDFサンプリング:Trncated Signed Distance Fieldを用いたニューラルネットワークの効率的なサンプリング
- Authors: Chaerin Min, Sehyun Cha, Changhee Won, and Jongwoo Lim
- Abstract要約: 本稿では,シーンのTrncated Signed Distance Field (TSDF) を組み込むことにより,サンプリング回数を大幅に削減する新しい手法を提案する。
実験の結果, 性能を損なうことなく, 推論速度は11倍に向上した。
- 参考スコア(独自算出の注目度): 9.458310455872438
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-view neural surface reconstruction has exhibited impressive results.
However, a notable limitation is the prohibitively slow inference time when
compared to traditional techniques, primarily attributed to the dense sampling,
required to maintain the rendering quality. This paper introduces a novel
approach that substantially reduces the number of samplings by incorporating
the Truncated Signed Distance Field (TSDF) of the scene. While prior works have
proposed importance sampling, their dependence on initial uniform samples over
the entire space makes them unable to avoid performance degradation when trying
to use less number of samples. In contrast, our method leverages the TSDF
volume generated only by the trained views, and it proves to provide a
reasonable bound on the sampling from upcoming novel views. As a result, we
achieve high rendering quality by fully exploiting the continuous neural SDF
estimation within the bounds given by the TSDF volume. Notably, our method is
the first approach that can be robustly plug-and-play into a diverse array of
neural surface field models, as long as they use the volume rendering
technique. Our empirical results show an 11-fold increase in inference speed
without compromising performance. The result videos are available at our
project page: https://tsdf-sampling.github.io/
- Abstract(参考訳): マルチビュー神経表面再構成は印象的な結果を示した。
しかし、顕著な制限は、レンダリング品質を維持するために必要な濃密なサンプリングに起因する従来の技術と比較して、明らかに遅い推論時間である。
本稿では,シーンのTrncated Signed Distance Field (TSDF) を組み込むことにより,サンプリング回数を大幅に削減する新しい手法を提案する。
先行研究ではサンプリングの重要性が提案されているが、初期均一なサンプルを空間全体に依存させることで、サンプル数を少なくしようとすると性能低下を回避できない。
対照的に,本手法はトレーニングされたビューのみによって生成されたTSDFボリュームを活用し,今後の新規ビューからのサンプリングに合理的な制約を与えることを示す。
その結果、TSDFボリュームが与えるバウンダリ内における連続神経SDF推定をフル活用することで、高いレンダリング品質を実現する。
特に,本手法は,ボリュームレンダリング技術を使用する限り,多種多様な神経表面場モデルに頑健にプラグアンドプレイできる最初の手法である。
実験の結果,性能を損なうことなく推論速度が11倍向上した。
https://tsdf-sampling.github.io/ というページで結果のビデオが閲覧できます。
関連論文リスト
- On Optimal Sampling for Learning SDF Using MLPs Equipped with Positional
Encoding [79.67071790034609]
我々は、好ましくない副作用を伴わずに、正確な暗黙の場を学習するための適切なサンプリング率を決定するツールを考案した。
PEを具備したPEは、PE層の最高周波数成分よりも内在周波数がはるかに高いことが観察された。
SDFフィッティングの設定において,この推奨サンプリングレートは正確なフィッティング結果の確保に十分であることを示す。
論文 参考訳(メタデータ) (2024-01-02T10:51:52Z) - ProNeRF: Learning Efficient Projection-Aware Ray Sampling for
Fine-Grained Implicit Neural Radiance Fields [27.008124938806944]
メモリフットプリント(NeRFに似ている)、スピード(HyperReelより速い)、品質(K-Planesより速い)の最適なトレードオフを提供するProNeRFを提案する。
我々のProNeRFは最先端の計測値であり、最も優れたサンプルベース手法であるHyperReelよりも15-23倍高速で、PSNRは0.65dB高く、PSNRは0.95dB高い。
論文 参考訳(メタデータ) (2023-12-13T13:37:32Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - PDF: Point Diffusion Implicit Function for Large-scale Scene Neural
Representation [24.751481680565803]
大規模シーンニューラル表現のためのポイント暗黙関数(PDF)を提案する。
本手法のコアは大規模クラウド超解像拡散モジュールである。
Mip-NeRF 360に基づく領域サンプリングを用いて背景表現をモデル化する。
論文 参考訳(メタデータ) (2023-11-03T08:19:47Z) - RL-based Stateful Neural Adaptive Sampling and Denoising for Real-Time
Path Tracing [1.534667887016089]
モンテカルロ経路追跡は、現実的な画像合成の強力な手法であるが、低いサンプル数での高レベルのノイズに悩まされている。
本稿では,サンプリング重要度ネットワーク,遅延空間エンコーダネットワーク,デノイザネットワークをエンドツーエンドでトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-05T12:39:27Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance
Fields [8.214695794896127]
新たなビュー合成は、スパース観測から直接神経放射場を学習することで、近年革新されている。
この新たなパラダイムによる画像のレンダリングは、ボリュームレンダリング方程式の正確な4分の1は、各光線に対して大量のサンプルを必要とするため、遅い。
本稿では,必要なサンプル点数を最大限に削減する方法を学習し,方向性を示す新しいデュアルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-21T05:59:13Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z) - NeuSample: Neural Sample Field for Efficient View Synthesis [129.10351459066501]
本稿では,ニューラルサンプル場を命名する軽量モジュールを提案する。
提案したサンプルフィールドは、線をサンプル分布にマッピングし、点座標に変換し、ボリュームレンダリングのために放射場に供給することができる。
我々はNeuSampleが高速な推論速度を保ちながら、NeRFよりも優れたレンダリング品質を実現することを示す。
論文 参考訳(メタデータ) (2021-11-30T16:43:49Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - Learning to Importance Sample in Primary Sample Space [22.98252856114423]
本稿では,ニューラルネットワークを用いて,サンプルの集合に代表される所望密度からサンプルを抽出する方法を学習する,新たな重要サンプリング手法を提案する。
提案手法は, 様々なシナリオにおいて, 効果的な分散低減につながることを示す。
論文 参考訳(メタデータ) (2018-08-23T16:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。