論文の概要: TermiNeRF: Ray Termination Prediction for Efficient Neural Rendering
- arxiv url: http://arxiv.org/abs/2111.03643v1
- Date: Fri, 5 Nov 2021 17:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 16:14:50.205926
- Title: TermiNeRF: Ray Termination Prediction for Efficient Neural Rendering
- Title(参考訳): TermiNeRF:効率的なニューラルレンダリングのための光終端予測
- Authors: Martin Piala, Ronald Clark
- Abstract要約: ニューラルネットワークを用いたボリュームレンダリングは、3Dシーンの新たなビューをキャプチャして合成する上で大きな可能性を秘めている。
この種のアプローチでは、画像をレンダリングするために、各ビューレイに沿って複数のポイントでボリュームネットワークをクエリする必要がある。
本稿では,この限界を克服するために,画素の最終的な外観に影響を与える可能性が最も高いカメラ線から,光線に沿った位置への直接マッピングを学習する手法を提案する。
- 参考スコア(独自算出の注目度): 18.254077751772005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Volume rendering using neural fields has shown great promise in capturing and
synthesizing novel views of 3D scenes. However, this type of approach requires
querying the volume network at multiple points along each viewing ray in order
to render an image, resulting in very slow rendering times. In this paper, we
present a method that overcomes this limitation by learning a direct mapping
from camera rays to locations along the ray that are most likely to influence
the pixel's final appearance. Using this approach we are able to render, train
and fine-tune a volumetrically-rendered neural field model an order of
magnitude faster than standard approaches. Unlike existing methods, our
approach works with general volumes and can be trained end-to-end.
- Abstract(参考訳): ニューラルフィールドを用いたボリュームレンダリングは、3dシーンの新しいビューをキャプチャし、合成する上で非常に有望である。
しかし、この種のアプローチでは、画像をレンダリングするために、ビューレイごとに複数のポイントでボリュームネットワークをクエリする必要があるため、レンダリング時間が非常に遅い。
本稿では,この限界を克服するために,画素の最終的な外観に影響を与える可能性が最も高い位置へのカメラ線からの直接マッピングを学習する手法を提案する。
このアプローチを使用することで、ボリュームレンダリングされたニューラルネットワークモデルを、標準的なアプローチよりも桁違いに高速にレンダリング、トレーニング、微調整することが可能になります。
既存の方法とは異なり、私たちのアプローチは一般的なボリュームで動作し、エンドツーエンドでトレーニングすることができます。
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - Local Implicit Ray Function for Generalizable Radiance Field
Representation [20.67358742158244]
本稿では、新しいビューレンダリングのための一般化可能なニューラルレンダリング手法であるLIRF(Local Implicit Ray Function)を提案する。
円錐体フラスタム内の3次元位置が与えられると、LIRFは3次元座標と円錐体フラスタムの特徴を入力として取り、局所体積放射場を予測する。
座標は連続しているため、LIRFはボリュームレンダリングを通じて、高品質の新規ビューを継続的に評価する。
論文 参考訳(メタデータ) (2023-04-25T11:52:33Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Learning Generalizable Light Field Networks from Few Images [7.672380267651058]
ニューラル光場表現に基づく数発の新規ビュー合成のための新しい戦略を提案する。
提案手法は,最先端のニューラルラジアンスフィールドに基づく競合に対して,合成および実MVSデータ上での競合性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T14:47:11Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z) - pixelNeRF: Neural Radiance Fields from One or Few Images [20.607712035278315]
pixelNeRFは、1つまたは少数の入力画像に条件付された連続的なニューラルシーン表現を予測する学習フレームワークである。
本研究では,単一画像の新規ビュー合成タスクのためのShapeNetベンチマーク実験を行った。
いずれの場合も、ピクセルNeRFは、新しいビュー合成とシングルイメージ3D再構成のための最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-12-03T18:59:54Z) - TRANSPR: Transparency Ray-Accumulating Neural 3D Scene Point Renderer [6.320273914694594]
本稿では,半透明シーンをモデル化可能なニューラルポイントベースグラフィックス手法を提案し,評価する。
半透明な点雲のシーンの新たなビューは、我々のアプローチでトレーニングした後に生成できることを示す。
論文 参考訳(メタデータ) (2020-09-06T21:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。