論文の概要: Deceptive-NeRF: Enhancing NeRF Reconstruction using Pseudo-Observations
from Diffusion Models
- arxiv url: http://arxiv.org/abs/2305.15171v3
- Date: Mon, 16 Oct 2023 15:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 04:58:44.582915
- Title: Deceptive-NeRF: Enhancing NeRF Reconstruction using Pseudo-Observations
from Diffusion Models
- Title(参考訳): 知覚-NeRF:拡散モデルからの擬似観測によるNeRF再構成の促進
- Authors: Xinhang Liu, Jiaben Chen, Shiu-hong Kao, Yu-Wing Tai, Chi-Keung Tang
- Abstract要約: 数発のNeRF再構成のための新しい手法であるDeceptive-NeRFを紹介する。
我々は,RGB画像と深度マップを粗いNeRFからフォトリアリスティックな擬似観測へ順応的に遷移させる,知覚拡散モデルを開発した。
本稿では,現在のNeRFレンダリングを用いて,次のイテレーションのNeRFを高める擬似観測を生成することによって,認知-NeRFを学習するためのプログレッシブ戦略を提案する。
- 参考スコア(独自算出の注目度): 64.93632281251386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Deceptive-NeRF, a novel methodology for few-shot NeRF
reconstruction, which leverages diffusion models to synthesize plausible
pseudo-observations to improve the reconstruction. This approach unfolds
through three key steps: 1) reconstructing a coarse NeRF from sparse input
data; 2) utilizing the coarse NeRF to render images and subsequently generating
pseudo-observations based on them; 3) training a refined NeRF model utilizing
input images augmented with pseudo-observations. We develop a deceptive
diffusion model that adeptly transitions RGB images and depth maps from coarse
NeRFs into photo-realistic pseudo-observations, all while preserving scene
semantics for reconstruction. Furthermore, we propose a progressive strategy
for training the Deceptive-NeRF, using the current NeRF renderings to create
pseudo-observations that enhance the next iteration's NeRF. Extensive
experiments demonstrate that our approach is capable of synthesizing
photo-realistic novel views, even for highly complex scenes with very sparse
inputs. Codes will be released.
- Abstract(参考訳): そこで本研究では, 拡散モデルを用いて疑似観測を合成し, 再構成を改善するための新しい手法であるdeceptive-nerfを提案する。
このアプローチは3つの重要なステップを通じて展開される。
1) 粗いNeRFをスパース入力データから再構成すること。
2) 粗いNeRFを用いて画像を描画し,その後,それらに基づいて擬似観測を生成する。
3)疑似観測を付加した入力画像を用いた改良nyrfモデルのトレーニング。
我々は,RGB画像と深度マップを粗いNeRFから光写実的な擬似観測へと順応的に変換し,シーンのセマンティクスを保ちながら,認識拡散モデルを構築した。
さらに、現在のNeRFレンダリングを用いて、次のイテレーションのNeRFを強化する擬似観測を生成することによって、Deceptive-NeRFを訓練するためのプログレッシブ戦略を提案する。
広範な実験により,非常に少ない入力を持つ複雑なシーンでも,フォトリアリスティックなノベルビューを合成できることが実証された。
コードはリリースされる。
関連論文リスト
- DiHuR: Diffusion-Guided Generalizable Human Reconstruction [51.31232435994026]
一般化可能なヒト3次元再構成のための拡散誘導モデルであるDiHuRを導入し,スパース・ミニマル・オーバーラップ画像からのビュー合成について述べる。
提案手法は, 一般化可能なフィードフォワードモデルと2次元拡散モデルとの2つのキー前処理をコヒーレントな方法で統合する。
論文 参考訳(メタデータ) (2024-11-16T03:52:23Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - Text-Image Conditioned Diffusion for Consistent Text-to-3D Generation [28.079441901818296]
我々は,粒度の細かい視野の整合性を明示したNeRF(Neural Radiance Fields)のテキスト・ツー・3D手法を提案する。
本手法は,既存のテキスト・ツー・3D法に対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T01:09:49Z) - CAD: Photorealistic 3D Generation via Adversarial Distillation [28.07049413820128]
本稿では,事前学習した拡散モデルを用いた3次元合成のための新しい学習パラダイムを提案する。
提案手法は,1つの画像に条件付された高忠実かつ光リアルな3Dコンテンツの生成を解放し,プロンプトを行う。
論文 参考訳(メタデータ) (2023-12-11T18:59:58Z) - EpiDiff: Enhancing Multi-View Synthesis via Localized Epipolar-Constrained Diffusion [60.30030562932703]
EpiDiffは、局所的なインタラクティブなマルチビュー拡散モデルである。
16枚のマルチビュー画像をわずか12秒で生成する。
品質評価の指標では、以前の手法を上回ります。
論文 参考訳(メタデータ) (2023-12-11T05:20:52Z) - Sparse3D: Distilling Multiview-Consistent Diffusion for Object
Reconstruction from Sparse Views [47.215089338101066]
スパースビュー入力に適した新しい3D再構成手法であるスパース3Dを提案する。
提案手法は,多視点拡散モデルから頑健な先行情報を抽出し,ニューラルラディアンス場を改良する。
強力な画像拡散モデルから2Dプリエントをタップすることで、我々の統合モデルは、常に高品質な結果をもたらす。
論文 参考訳(メタデータ) (2023-08-27T11:52:00Z) - Single-Stage Diffusion NeRF: A Unified Approach to 3D Generation and
Reconstruction [77.69363640021503]
3D対応画像合成は、シーン生成や画像からの新規ビュー合成など、様々なタスクを含む。
本稿では,様々な物体の多視点画像から,ニューラルラディアンス場(NeRF)の一般化可能な事前学習を行うために,表現拡散モデルを用いた統一的アプローチであるSSDNeRFを提案する。
論文 参考訳(メタデータ) (2023-04-13T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。