論文の概要: Advances in Neural Rendering
- arxiv url: http://arxiv.org/abs/2111.05849v1
- Date: Wed, 10 Nov 2021 18:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 15:28:01.594611
- Title: Advances in Neural Rendering
- Title(参考訳): ニューラルレンダリングの進歩
- Authors: Ayush Tewari, Justus Thies, Ben Mildenhall, Pratul Srinivasan, Edgar
Tretschk, Yifan Wang, Christoph Lassner, Vincent Sitzmann, Ricardo
Martin-Brualla, Stephen Lombardi, Tomas Simon, Christian Theobalt, Matthias
Niessner, Jonathan T. Barron, Gordon Wetzstein, Michael Zollhoefer, Vladislav
Golyanik
- Abstract要約: 本稿では,古典的レンダリングと学習された3Dシーン表現を組み合わせた手法について述べる。
これらの手法の重要な利点は、これらが3D一貫性を持ち、キャプチャされたシーンの新たな視点のようなアプリケーションを可能にすることである。
静的なシーンを扱う方法に加えて、非厳密な変形オブジェクトをモデル化するためのニューラルシーン表現についても取り上げる。
- 参考スコア(独自算出の注目度): 115.05042097988768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing photo-realistic images and videos is at the heart of computer
graphics and has been the focus of decades of research. Traditionally,
synthetic images of a scene are generated using rendering algorithms such as
rasterization or ray tracing, which take specifically defined representations
of geometry and material properties as input. Collectively, these inputs define
the actual scene and what is rendered, and are referred to as the scene
representation (where a scene consists of one or more objects). Example scene
representations are triangle meshes with accompanied textures (e.g., created by
an artist), point clouds (e.g., from a depth sensor), volumetric grids (e.g.,
from a CT scan), or implicit surface functions (e.g., truncated signed distance
fields). The reconstruction of such a scene representation from observations
using differentiable rendering losses is known as inverse graphics or inverse
rendering. Neural rendering is closely related, and combines ideas from
classical computer graphics and machine learning to create algorithms for
synthesizing images from real-world observations. Neural rendering is a leap
forward towards the goal of synthesizing photo-realistic image and video
content. In recent years, we have seen immense progress in this field through
hundreds of publications that show different ways to inject learnable
components into the rendering pipeline. This state-of-the-art report on
advances in neural rendering focuses on methods that combine classical
rendering principles with learned 3D scene representations, often now referred
to as neural scene representations. A key advantage of these methods is that
they are 3D-consistent by design, enabling applications such as novel viewpoint
synthesis of a captured scene. In addition to methods that handle static
scenes, we cover neural scene representations for modeling non-rigidly
deforming objects...
- Abstract(参考訳): フォトリアリスティック画像とビデオの合成はコンピュータグラフィックスの中心であり、数十年の研究の中心となっている。
伝統的に、シーンの合成画像はラスタライズやレイトレーシングなどのレンダリングアルゴリズムを使って生成され、幾何や物質の性質の表現を入力として具体的に定義する。
集合的に、これらの入力は実際のシーンとレンダリングしたものを定義し、シーン表現(シーンは1つ以上のオブジェクトで構成される)と呼ばれる。
例としては、テクスチャを伴う三角形メッシュ(例えば、アーティストによって作成された)、ポイントクラウド(例えば、深度センサーから)、ボリュームグリッド(例えば、ctスキャンから)、暗黙的な表面機能(例えば、トランケートされた符号付き距離場)がある。
異なるレンダリング損失を用いた観察からのシーン表現の再構成は、逆グラフィックまたは逆レンダリングとして知られている。
ニューラルレンダリングは密接に関連しており、古典的なコンピュータグラフィックスと機械学習のアイデアを組み合わせて、現実世界の観察から画像を合成するためのアルゴリズムを作成する。
ニューラルレンダリングは、写真リアリスティック画像とビデオコンテンツを合成するという目標に向かって前進している。
近年では、学習可能なコンポーネントをレンダリングパイプラインに注入するさまざまな方法を示す何百もの出版物を通じて、この分野で大きな進歩を遂げています。
ニューラルレンダリングの進歩に関する最新のレポートは、古典的なレンダリング原理と学習された3Dシーン表現を組み合わせた手法に焦点を当てている。
これらの手法の重要な利点は、これらが3D一貫性を持ち、キャプチャされたシーンの新規な視点合成のような応用を可能にすることである。
静的シーンを処理する方法に加えて、非厳密な変形オブジェクトをモデリングするためのニューラルシーン表現もカバーしています。
関連論文リスト
- Self-supervised Learning of Neural Implicit Feature Fields for Camera Pose Refinement [32.335953514942474]
本稿では,3次元の高密度特徴場と2次元の特徴抽出器を併用してシーン表現を共同学習することを提案する。
暗黙の場に符号化された中間的幾何情報を活用するために、ボリュームレンダリングを通してシーンの基盤となる幾何学を学習し、特徴体を設計する。
次に、画像ベースの機能とレンダリングされたボリューム機能を調整することで、視覚的なローカライゼーションを実現する。
論文 参考訳(メタデータ) (2024-06-12T17:51:53Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - GIRAFFE: Representing Scenes as Compositional Generative Neural Feature
Fields [45.21191307444531]
深部生成モデルは、高解像度で光リアルな画像合成を可能にする。
しかし、多くのアプリケーションにとって、これは十分ではない。コンテンツ生成も制御可能である必要がある。
我々のキーとなる仮説は、構成的な3Dシーン表現を生成モデルに組み込むことにより、より制御可能な画像合成につながるというものである。
論文 参考訳(メタデータ) (2020-11-24T14:14:15Z) - Neural Scene Graphs for Dynamic Scenes [57.65413768984925]
動的シーンをシーングラフに分解する最初のニューラルレンダリング手法を提案する。
我々は暗黙的に符号化されたシーンと、単一の暗黙の関数でオブジェクトを記述するために共同で学習された潜在表現を組み合わせる。
論文 参考訳(メタデータ) (2020-11-20T12:37:10Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。