論文の概要: Neural Adaptive SCEne Tracing
- arxiv url: http://arxiv.org/abs/2202.13664v1
- Date: Mon, 28 Feb 2022 10:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 02:42:25.266691
- Title: Neural Adaptive SCEne Tracing
- Title(参考訳): ニューラルアダプティブSCEneの追跡
- Authors: Rui Li, Darius R\"Uckert, Yuanhao Wang, Ramzi Idoughi, Wolfgang
Heidrich
- Abstract要約: NAScenTは,ハイブリッド・明示的ニューラル表現を直接訓練した最初のニューラルレンダリング手法である。
NAScenTは、UAVが捕獲した屋外環境のような、大きくて人口の少ないボリュームを含む、困難なシーンを再構築することができる。
- 参考スコア(独自算出の注目度): 24.781844909539686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural rendering with implicit neural networks has recently emerged as an
attractive proposition for scene reconstruction, achieving excellent quality
albeit at high computational cost. While the most recent generation of such
methods has made progress on the rendering (inference) times, very little
progress has been made on improving the reconstruction (training) times. In
this work, we present Neural Adaptive Scene Tracing (NAScenT), the first neural
rendering method based on directly training a hybrid explicit-implicit neural
representation. NAScenT uses a hierarchical octree representation with one
neural network per leaf node and combines this representation with a two-stage
sampling process that concentrates ray samples where they matter most near
object surfaces. As a result, NAScenT is capable of reconstructing challenging
scenes including both large, sparsely populated volumes like UAV captured
outdoor environments, as well as small scenes with high geometric complexity.
NAScenT outperforms existing neural rendering approaches in terms of both
quality and training time.
- Abstract(参考訳): 暗黙のニューラルネットワークによるニューラルレンダリングは、高計算コストで優れた品質を実現するために、シーン再構築の魅力的な提案として最近登場した。
このような手法の最新の世代はレンダリング(推論)の時間を進歩させてきたが、再構築(トレーニング)の時間を改善するための進展はほとんどなかった。
本研究では,ハイブリッドな明示的ニューラルネットワーク表現を直接トレーニングした最初のニューラルネットワークレンダリング手法であるneural adaptive scene tracing(nascent)を提案する。
NAScenTは、葉ノードごとに1つのニューラルネットワークと階層的なオクツリー表現を使用し、この表現を2段階のサンプリングプロセスと組み合わせて、被写体表面に最も重要な光サンプルを集中させる。
その結果、nascentは、屋外環境を捉えたuavのような、大きくて人口の少ない大きなボリュームと、幾何学的複雑度の高い小さなシーンの両方を含む挑戦的なシーンを再構築することができる。
nascentは、品質とトレーニング時間の両方において、既存のニューラルレンダリングアプローチを上回っている。
関連論文リスト
- An experimental comparative study of backpropagation and alternatives for training binary neural networks for image classification [1.0749601922718608]
バイナリニューラルネットワークは、ディープニューラルネットワークモデルのサイズを減らすことを約束する。
より強力なモデルをエッジデバイスにデプロイすることも可能だ。
しかしながら、バイナリニューラルネットワークは、バックプロパゲーションに基づく勾配降下法を用いて訓練することが依然として難しいことが証明されている。
論文 参考訳(メタデータ) (2024-08-08T13:39:09Z) - D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Volume Feature Rendering for Fast Neural Radiance Field Reconstruction [11.05302598034426]
ニューラルレイディアンス場(NeRF)は、異なる位置と視点から撮影された多視点画像から現実的な新しいビューを合成することができる。
NeRFのレンダリングパイプラインでは、ニューラルネットワークはシーンを独立して表現したり、期待される色や密度のポイントのクエリ可能な特徴ベクトルを変換するために使用される。
提案手法では,まず,まず線の特徴ベクトルを描画し,次にニューラルネットワークにより最終画素色に変換する。
論文 参考訳(メタデータ) (2023-05-29T06:58:27Z) - NeRN -- Learning Neural Representations for Neural Networks [3.7384109981836153]
ニューラルネットワークを正しく適応させると、トレーニング済みの畳み込みニューラルネットワークの重みを表現できる。
従来のニューラル表現法の入力の座標にインスパイアされ、ネットワーク内の各畳み込みカーネルに座標を割り当てる。
我々は、NeRNを用いて学習した表現の能力を実証する2つのアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-12-27T17:14:44Z) - AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance
Fields [8.214695794896127]
新たなビュー合成は、スパース観測から直接神経放射場を学習することで、近年革新されている。
この新たなパラダイムによる画像のレンダリングは、ボリュームレンダリング方程式の正確な4分の1は、各光線に対して大量のサンプルを必要とするため、遅い。
本稿では,必要なサンプル点数を最大限に削減する方法を学習し,方向性を示す新しいデュアルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-21T05:59:13Z) - Neural Rays for Occlusion-aware Image-based Rendering [108.34004858785896]
我々は,ニューラルレイ(NeuRay)と呼ばれるニューラル表現を,マルチビューイメージを入力として,新しいビュー合成(NVS)タスクのために提案する。
NeuRayは、微調整の少ない未確認シーンの高品質なノベルビューレンダリング画像を生成することができる。
論文 参考訳(メタデータ) (2021-07-28T15:09:40Z) - Fast Training of Neural Lumigraph Representations using Meta Learning [109.92233234681319]
我々は、リアルタイムにレンダリングできる高品質な表現を素早く学習することを目的として、新しいニューラルレンダリングアプローチを開発した。
われわれのアプローチであるMetaNLR++は、ニューラル形状表現と2次元CNNに基づく画像特徴抽出、集約、再投影のユニークな組み合わせを用いてこれを実現する。
そこで本研究では,MetaNLR++が類似あるいはより優れたフォトリアリスティックなノベルビュー合成を実現し,競合する手法が要求される時間のほんの少しの時間で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T18:55:50Z) - NeuS: Learning Neural Implicit Surfaces by Volume Rendering for
Multi-view Reconstruction [88.02850205432763]
物体やシーンを2次元画像入力から高忠実度に再構成するニュートラルサーフェス(NeuS)を提案する。
DVRやIDRのような既存の神経表面再構成アプローチでは、フォアグラウンドマスクを監督する必要がある。
本研究では,従来のボリュームレンダリング手法が表面再構成に固有の幾何学的誤差を引き起こすことを観察する。
マスクの監督なしでもより正確な表面再構成を実現するため,第一次近似ではバイアスのない新しい定式化を提案する。
論文 参考訳(メタデータ) (2021-06-20T12:59:42Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。