論文の概要: SinGRAF: Learning a 3D Generative Radiance Field for a Single Scene
- arxiv url: http://arxiv.org/abs/2211.17260v1
- Date: Wed, 30 Nov 2022 18:55:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 15:26:30.972201
- Title: SinGRAF: Learning a 3D Generative Radiance Field for a Single Scene
- Title(参考訳): SinGRAF: ワンシーンで3D生成放射場を学ぶ
- Authors: Minjung Son, Jeong Joon Park, Leonidas Guibas, Gordon Wetzstein
- Abstract要約: SinGRAF(SinGRAF)は、1つのシーンのいくつかの入力画像で訓練された3D認識生成モデルである。
シーンレイアウトを変えながら入力の外観を保ったこの3Dシーンの異なる実現法を生成する。
いくつかの実験により、SinGRAFが生み出した結果は、品質と多様性の両方において、大きなマージンで、最も近い関連研究を上回ります。
- 参考スコア(独自算出の注目度): 40.705096946588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models have shown great promise in synthesizing photorealistic 3D
objects, but they require large amounts of training data. We introduce SinGRAF,
a 3D-aware generative model that is trained with a few input images of a single
scene. Once trained, SinGRAF generates different realizations of this 3D scene
that preserve the appearance of the input while varying scene layout. For this
purpose, we build on recent progress in 3D GAN architectures and introduce a
novel progressive-scale patch discrimination approach during training. With
several experiments, we demonstrate that the results produced by SinGRAF
outperform the closest related works in both quality and diversity by a large
margin.
- Abstract(参考訳): 生成モデルは、フォトリアリスティックな3Dオブジェクトを合成するのに非常に有望であるが、大量のトレーニングデータが必要である。
SinGRAF(SinGRAF)は、1つのシーンの入力画像で訓練された3D認識生成モデルである。
トレーニングが完了すると、SinGRAFはこの3Dシーンの異なる実現法を生成し、入力の外観を異なるシーンレイアウトで保持する。
本研究の目的は,最近の3D GANアーキテクチャの進歩を基盤として,トレーニング中に新しいプログレッシブスケールのパッチ識別アプローチを導入することである。
いくつかの実験により、SinGRAFが生み出した結果は、品質と多様性の両方において、大きなマージンで、最も近い関連研究を上回ります。
関連論文リスト
- Invisible Stitch: Generating Smooth 3D Scenes with Depth Inpainting [75.7154104065613]
本稿では,3次元融合過程を学習するために,教師の蒸留と自己学習によって訓練された新しい深度補完モデルを提案する。
また,地上の真理幾何に基づくシーン生成手法のベンチマーク手法も導入した。
論文 参考訳(メタデータ) (2024-04-30T17:59:40Z) - Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting [10.06208115191838]
トレーニングされた3D-GSを用いて,新しいビューのレンダリングを強化するブートストラップ手法を提案する。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - 3D-Aware Indoor Scene Synthesis with Depth Priors [62.82867334012399]
既存の手法では、室内配置や内部の物体の多様さのため、屋内シーンのモデル化に失敗する。
室内のシーンは共通な内在構造を持たず、2次元画像のみを用いるだけでは3次元形状のモデルが適切にガイドできない。
論文 参考訳(メタデータ) (2022-02-17T09:54:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。