論文の概要: NeRFs: The Search for the Best 3D Representation
- arxiv url: http://arxiv.org/abs/2308.02751v1
- Date: Sat, 5 Aug 2023 00:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 18:59:11.381473
- Title: NeRFs: The Search for the Best 3D Representation
- Title(参考訳): NeRFs:最高の3D表現の検索
- Authors: Ravi Ramamoorthi
- Abstract要約: 我々は、ビュー合成と関連する問題に最適な3D表現を見つけるために、30年にわたる探究を簡潔にレビューする。
次に、NeRF表現の観点から新しい展開を記述し、3D表現の将来についていくつかの観察と考察を行う。
- 参考スコア(独自算出の注目度): 43.08816154757924
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural Radiance Fields or NeRFs have become the representation of choice for
problems in view synthesis or image-based rendering, as well as in many other
applications across computer graphics and vision, and beyond. At their core,
NeRFs describe a new representation of 3D scenes or 3D geometry. Instead of
meshes, disparity maps, multiplane images or even voxel grids, they represent
the scene as a continuous volume, with volumetric parameters like
view-dependent radiance and volume density obtained by querying a neural
network. The NeRF representation has now been widely used, with thousands of
papers extending or building on it every year, multiple authors and websites
providing overviews and surveys, and numerous industrial applications and
startup companies. In this article, we briefly review the NeRF representation,
and describe the three decades-long quest to find the best 3D representation
for view synthesis and related problems, culminating in the NeRF papers. We
then describe new developments in terms of NeRF representations and make some
observations and insights regarding the future of 3D representations.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、ビュー合成や画像ベースのレンダリングにおける問題や、コンピュータグラフィックスやビジョンなど他の多くのアプリケーションにおいて、選択の表現となっている。
中心となるNeRFは、3Dシーンや3D幾何学の新しい表現を記述する。
メッシュ、不均一マップ、マルチプレーンイメージ、さらにはボクセルグリッドなどの代わりに、ビュー依存放射率やニューラルネットワークをクエリすることで得られるボリューム密度といったボリュームパラメータを備えた連続ボリュームとしてシーンを表現する。
現在、NeRF表現は広く使われており、何千もの論文が毎年拡張または構築され、複数の著者やウェブサイトが概要と調査を提供し、多くの産業アプリケーションやスタートアップ企業を提供している。
本稿では、NeRFの表現を概観し、ビュー合成と関連する問題に最適な3次元表現を見つけるための30年間の探求について述べる。
次に、NeRF表現の観点から新しい展開を記述し、3D表現の将来についていくつかの観察と考察を行う。
関連論文リスト
- Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - BeyondPixels: A Comprehensive Review of the Evolution of Neural Radiance Fields [1.1531932979578041]
NeRF(Neural Radiance Fieldsの略)は、AIアルゴリズムを使用して2D画像から3Dオブジェクトを生成する最近のイノベーションである。
この調査は、最近のNeRFの進歩を概観し、それらのアーキテクチャ設計に従って分類する。
論文 参考訳(メタデータ) (2023-06-05T16:10:21Z) - Neural Radiance Fields: Past, Present, and Future [0.0]
MildenhallらがNeRFに関する論文で行った試みは、コンピュータグラフィックス、ロボティクス、コンピュータビジョンのブームにつながり、高解像度の低ストレージ拡張現実と仮想現実ベースの3Dモデルは、NeRFに関連する1000以上のプレプリントのリセットから注目を集めている。
このサーベイは、レンダリング、インプリシトラーニング、NeRFの歴史、NeRFの研究の進展、そして今日の世界のNeRFの潜在的な応用と意味を提供する。
論文 参考訳(メタデータ) (2023-04-20T02:17:08Z) - 3D Concept Learning and Reasoning from Multi-View Images [96.3088005719963]
3次元多視点視覚質問応答のための大規模ベンチマーク(3DMV-VQA)を提案する。
このデータセットは、約5kのシーンと600kのイメージで構成され、50kの質問と組み合わせられている。
本稿では,ニューラルネットワーク,2次元事前学習型視覚言語モデル,ニューラル推論演算子をシームレスに組み合わせた新しい3次元概念学習・推論フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-20T17:59:49Z) - NeRFMeshing: Distilling Neural Radiance Fields into
Geometrically-Accurate 3D Meshes [56.31855837632735]
我々は、NeRF駆動のアプローチで容易に3次元表面を再構成できるコンパクトで柔軟なアーキテクチャを提案する。
最後の3Dメッシュは物理的に正確で、デバイスアレイ上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2023-03-16T16:06:03Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - NeRF: Neural Radiance Field in 3D Vision, A Comprehensive Review [19.67372661944804]
ニューラル・ラジアンス・フィールド(NeRF)は近年,コンピュータビジョンの分野で重要な発展を遂げている。
NeRFモデルは、ロボット工学、都市マッピング、自律ナビゲーション、仮想現実/拡張現実など、さまざまな応用を見出している。
論文 参考訳(メタデータ) (2022-10-01T21:35:11Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Baking Neural Radiance Fields for Real-Time View Synthesis [41.07052395570522]
我々は、NeRFをトレーニングし、プリコンプリートし、保存する(すなわち)方法を提案する。
「ベイク」はスパースニューラルネットワーク放射格子(snerg)と呼ばれる新しい表現である。
結果として生じるシーン表現は、細かい幾何学的詳細とビュー依存の外観をレンダリングするNeRFの能力を保持し、コンパクトであり、リアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2021-03-26T17:59:52Z) - pixelNeRF: Neural Radiance Fields from One or Few Images [20.607712035278315]
pixelNeRFは、1つまたは少数の入力画像に条件付された連続的なニューラルシーン表現を予測する学習フレームワークである。
本研究では,単一画像の新規ビュー合成タスクのためのShapeNetベンチマーク実験を行った。
いずれの場合も、ピクセルNeRFは、新しいビュー合成とシングルイメージ3D再構成のための最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-12-03T18:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。