論文の概要: RGB-D Neural Radiance Fields: Local Sampling for Faster Training
- arxiv url: http://arxiv.org/abs/2203.15587v1
- Date: Sat, 26 Mar 2022 11:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 01:19:34.818122
- Title: RGB-D Neural Radiance Fields: Local Sampling for Faster Training
- Title(参考訳): rgb-dニューラルラミアンスフィールド--高速トレーニングのための局所サンプリング
- Authors: Arnab Dey and Andrew I. Comport
- Abstract要約: 神経放射場(NeRF)を用いた画像からの暗黙的神経表現の最近の進歩は有望な結果を示している。
以前のNeRFベースの手法のいくつかの制限は、長いトレーニング時間と、基礎となる幾何の不正確さである。
本稿では,より高速なトレーニング時間を実現するために,深度誘導型局所サンプリング戦略とより小さなニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.8223798883838329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning a 3D representation of a scene has been a challenging problem for
decades in computer vision. Recent advances in implicit neural representation
from images using neural radiance fields(NeRF) have shown promising results.
Some of the limitations of previous NeRF based methods include longer training
time, and inaccurate underlying geometry. The proposed method takes advantage
of RGB-D data to reduce training time by leveraging depth sensing to improve
local sampling. This paper proposes a depth-guided local sampling strategy and
a smaller neural network architecture to achieve faster training time without
compromising quality.
- Abstract(参考訳): シーンの3d表現を学ぶことは、何十年もの間コンピュータビジョンの難題だった。
神経放射場(NeRF)を用いた画像からの暗黙的神経表現の最近の進歩は有望な結果を示している。
以前のnerfベースの方法の制限には、長いトレーニング時間と不正確な基礎幾何学が含まれる。
提案手法はRGB-Dデータを利用して深度センシングを利用して局所サンプリングを改善することによりトレーニング時間を短縮する。
本稿では,より高速なトレーニング時間を実現するために,深度誘導型局所サンプリング戦略とニューラルネットワークアーキテクチャを提案する。
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - In Search of a Data Transformation That Accelerates Neural Field Training [37.39915075581319]
画素位置の置換がSGDの収束速度にどのように影響するかに焦点をあてる。
対して、画素位置をランダムに変化させることで、トレーニングをかなり加速させることができる。
解析の結果、ランダムなピクセル置換は、初期最適化の妨げとなるが、信号の細部を捉えやすいパターンを取り除くことが示唆された。
論文 参考訳(メタデータ) (2023-11-28T06:17:49Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - EfficientNeRF: Efficient Neural Radiance Fields [63.76830521051605]
我々は,3次元シーンを表現し,新しい映像を合成する効率的なNeRF法として,EfficientNeRFを提案する。
本手法は, トレーニング時間の88%以上を短縮し, 200FPS以上のレンダリング速度を達成できるが, 競争精度は高い。
論文 参考訳(メタデータ) (2022-06-02T05:36:44Z) - Mip-NeRF RGB-D: Depth Assisted Fast Neural Radiance Fields [0.696125353550498]
ニューラルレイディアンスフィールド(NeRF)のようなニューラルシーン表現は、既知のポーズを持つカラー画像のセットを使用して多層パーセプトロン(MLP)をトレーニングすることに基づいている。
今や多くのデバイスがRGB-D情報を生成しており、これは幅広いタスクにおいて非常に重要であることが示されている。
本稿では,色画像に深度情報を組み込むことにより,これらの有望な暗示表現にどのような改善をもたらすかを検討する。
論文 参考訳(メタデータ) (2022-05-19T07:11:42Z) - DDNeRF: Depth Distribution Neural Radiance Fields [12.283891012446647]
DDNeRF(Deep Distribution Neural Radiance Field)は、トレーニング中の放射線のサンプリング効率を大幅に向上させる新しい手法である。
粗いモデルを用いて、入力体積の透過性の内部分布を予測し、体積の総密度を推定する。
このより詳細な分布は、ファインモデルのサンプリング手順を導出する。
論文 参考訳(メタデータ) (2022-03-30T19:21:07Z) - Neural Adaptive SCEne Tracing [24.781844909539686]
NAScenTは,ハイブリッド・明示的ニューラル表現を直接訓練した最初のニューラルレンダリング手法である。
NAScenTは、UAVが捕獲した屋外環境のような、大きくて人口の少ないボリュームを含む、困難なシーンを再構築することができる。
論文 参考訳(メタデータ) (2022-02-28T10:27:23Z) - Light Field Networks: Neural Scene Representations with
Single-Evaluation Rendering [60.02806355570514]
2次元観察から3Dシーンの表現を推定することは、コンピュータグラフィックス、コンピュータビジョン、人工知能の基本的な問題である。
そこで我々は,360度4次元光場における基礎となる3次元シーンの形状と外観の両面を表現した新しいニューラルシーン表現,光場ネットワーク(LFN)を提案する。
LFNからレイをレンダリングするには*single*ネットワークの評価しか必要としない。
論文 参考訳(メタデータ) (2021-06-04T17:54:49Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。