論文の概要: Unconstrained Scene Generation with Locally Conditioned Radiance Fields
- arxiv url: http://arxiv.org/abs/2104.00670v1
- Date: Thu, 1 Apr 2021 17:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 16:57:49.383963
- Title: Unconstrained Scene Generation with Locally Conditioned Radiance Fields
- Title(参考訳): 局所条件ラミアンスフィールドを用いた無拘束シーン生成
- Authors: Terrance DeVries, Miguel Angel Bautista, Nitish Srivastava, Graham W.
Taylor, Joshua M. Susskind
- Abstract要約: シーンを局所的な放射領域の集合体に分解することを学ぶGenerative Scene Networks(GSN)を紹介します。
私たちのモデルは、新しいシーンの生成や、スパースな2d観察のみのシーンの完了に先立って使用することが可能です。
- 参考スコア(独自算出の注目度): 24.036609880683585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tackle the challenge of learning a distribution over complex, realistic,
indoor scenes. In this paper, we introduce Generative Scene Networks (GSN),
which learns to decompose scenes into a collection of many local radiance
fields that can be rendered from a free moving camera. Our model can be used as
a prior to generate new scenes, or to complete a scene given only sparse 2D
observations. Recent work has shown that generative models of radiance fields
can capture properties such as multi-view consistency and view-dependent
lighting. However, these models are specialized for constrained viewing of
single objects, such as cars or faces. Due to the size and complexity of
realistic indoor environments, existing models lack the representational
capacity to adequately capture them. Our decomposition scheme scales to larger
and more complex scenes while preserving details and diversity, and the learned
prior enables high-quality rendering from viewpoints that are significantly
different from observed viewpoints. When compared to existing models, GSN
produces quantitatively higher-quality scene renderings across several
different scene datasets.
- Abstract(参考訳): 我々は,複雑で現実的な屋内シーンの配信を学ぶという課題に挑戦する。
本稿では,生成シーンネットワーク(GSN)を導入し,シーンを自由移動カメラからレンダリング可能な多数の局所放射場に分解する方法について述べる。
私たちのモデルは、新しいシーンの生成や、スパースな2d観察のみのシーンの完了に先立って使用することが可能です。
近年の研究では、放射場の生成モデルがマルチビュー一貫性やビュー依存照明などの特性をキャプチャできることが示されている。
しかし、これらのモデルは車や顔のような単一の物体の観察に特化している。
リアルな屋内環境の大きさと複雑さのため、既存のモデルはそれらを適切に捉えるための表現能力が欠けている。
本手法は,細部や多様性を保ちつつ,より大きく複雑なシーンにスケールし,観察した視点と大きく異なる視点から高品質なレンダリングを可能にする。
既存のモデルと比較すると、GSNは複数の異なるシーンデータセット間で定量的に高品質なシーンレンダリングを生成する。
関連論文リスト
- Content-Aware Radiance Fields: Aligning Model Complexity with Scene Intricacy Through Learned Bitwidth Quantization [30.707317084452594]
ラディアンスフィールドモデルは、各シーンのトレーニングモデルによって、3Dコンテンツを表現するように設計されています。
このシーン表現とシーンごとのトレーニングのユニークな特徴は、他のニューラルモデルと放射場モデルを区別する。
我々は、A-CAQ(Adversarial Content-Aware Quantization)を通して、シーンの複雑さとシーンの複雑度を整合する認識放射場を提案する。
論文 参考訳(メタデータ) (2024-10-25T11:39:55Z) - DORSal: Diffusion for Object-centric Representations of Scenes et al [28.181157214966493]
最近の3Dシーン理解の進歩は、多様なシーンの大きなデータセットにわたる表現のスケーラブルな学習を可能にする。
本研究では,凍結したオブジェクト中心のスロットベースのシーン表現を条件とした3次元シーン生成にビデオ拡散アーキテクチャを適用したDORSalを提案する。
論文 参考訳(メタデータ) (2023-06-13T18:32:35Z) - NeuralField-LDM: Scene Generation with Hierarchical Latent Diffusion
Models [85.20004959780132]
複雑な3D環境を合成できる生成モデルであるNeuralField-LDMを紹介する。
NeuralField-LDMは,条件付きシーン生成,シーンインペインティング,シーンスタイル操作など,さまざまな3Dコンテンツ作成アプリケーションに利用できることを示す。
論文 参考訳(メタデータ) (2023-04-19T16:13:21Z) - GAUDI: A Neural Architect for Immersive 3D Scene Generation [67.97817314857917]
GAUDIは、動くカメラから没入的にレンダリングできる複雑な3Dシーンの分布をキャプチャできる生成モデルである。
GAUDIは,複数のデータセットにまたがる非条件生成環境において,最先端の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-27T19:10:32Z) - Light Field Neural Rendering [47.7586443731997]
幾何再構成に基づく手法はスパースビューのみを必要とするが、非ランベルト効果を正確にモデル化することはできない。
強みを組み合わせたモデルを導入し、これらの2つの方向の制限を緩和する。
我々のモデルは、複数の前方向きデータセットと360degデータセットで最先端のモデルより優れています。
論文 参考訳(メタデータ) (2021-12-17T18:58:05Z) - BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering [145.95688637309746]
本稿では,大々的に変化するスケールにわたる詳細レンダリングを実現するプログレッシブ・ニューラル放射場である BungeeNeRF を紹介する。
多様なマルチスケールシーンをモデル化する上での BungeeNeRF の優位性を示す。
論文 参考訳(メタデータ) (2021-12-10T13:16:21Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z) - GIRAFFE: Representing Scenes as Compositional Generative Neural Feature
Fields [45.21191307444531]
深部生成モデルは、高解像度で光リアルな画像合成を可能にする。
しかし、多くのアプリケーションにとって、これは十分ではない。コンテンツ生成も制御可能である必要がある。
我々のキーとなる仮説は、構成的な3Dシーン表現を生成モデルに組み込むことにより、より制御可能な画像合成につながるというものである。
論文 参考訳(メタデータ) (2020-11-24T14:14:15Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。