論文の概要: Fast and Explicit Neural View Synthesis
- arxiv url: http://arxiv.org/abs/2107.05775v1
- Date: Mon, 12 Jul 2021 23:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:48:16.091848
- Title: Fast and Explicit Neural View Synthesis
- Title(参考訳): 高速かつ明示的なニューラルビュー合成
- Authors: Pengsheng Guo, Miguel Angel Bautista, Alex Colburn, Liang Yang, Daniel
Ulbricht, Joshua M. Susskind, Qi Shan
- Abstract要約: 本研究では,3次元オブジェクトからなるシーンの新規ビュー合成問題について検討する。
連続的でも暗黙的でもない、単純で効果的なアプローチを提案する。
我々のモデルはカテゴリに依存しない方法で訓練されており、シーン固有の最適化を必要としない。
- 参考スコア(独自算出の注目度): 17.811091108978463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of novel view synthesis of a scene comprised of 3D
objects. We propose a simple yet effective approach that is neither continuous
nor implicit, challenging recent trends on view synthesis. We demonstrate that
although continuous radiance field representations have gained a lot of
attention due to their expressive power, our simple approach obtains comparable
or even better novel view reconstruction quality comparing with
state-of-the-art baselines while increasing rendering speed by over 400x. Our
model is trained in a category-agnostic manner and does not require
scene-specific optimization. Therefore, it is able to generalize novel view
synthesis to object categories not seen during training. In addition, we show
that with our simple formulation, we can use view synthesis as a
self-supervision signal for efficient learning of 3D geometry without explicit
3D supervision.
- Abstract(参考訳): 本研究では3次元オブジェクトからなるシーンの新規ビュー合成問題について検討する。
本研究では,連続的でも暗黙的でもない,単純かつ効果的なアプローチを提案する。
連続放射場表現は表現力によって注目されているが,本手法では,最先端のベースラインと同等あるいはそれ以上の斬新なビュー再構成品質を得るとともに,レンダリング速度を400倍以上に向上させる。
我々のモデルはカテゴリに依存しない方法で訓練されており、シーン固有の最適化を必要としない。
そのため、学習中に見えない対象カテゴリに新しいビュー合成を一般化することができる。
さらに, 簡易な定式化により, 視線合成を自己超越信号として利用して, 3次元図形学習の効率化を図ることができることを示す。
関連論文リスト
- ViewCrafter: Taming Video Diffusion Models for High-fidelity Novel View Synthesis [63.169364481672915]
単一またはスパース画像からジェネリックシーンの高忠実な新規ビューを合成する新しい方法である textbfViewCrafter を提案する。
提案手法は,映像拡散モデルの強力な生成能力と,ポイントベース表現によって提供される粗い3D手がかりを利用して高品質な映像フレームを生成する。
論文 参考訳(メタデータ) (2024-09-03T16:53:19Z) - SparseCraft: Few-Shot Neural Reconstruction through Stereopsis Guided Geometric Linearization [7.769607568805291]
そこで本研究では,数枚のカラー画像から3次元形状とビュー依存の外観を復元する新しい手法を提案する。
本手法は,信号距離関数 (Signed Distance Function, SDF) と放射場 (Radiance Field) の形式で暗黙的なニューラル表現を学習する。
我々の貢献の鍵は、SDFフィールドがレベルセットの近くでできるだけ直線的であることを奨励する、暗黙の神経形状関数学習戦略である。
論文 参考訳(メタデータ) (2024-07-19T12:36:36Z) - Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - Efficient-3DiM: Learning a Generalizable Single-image Novel-view
Synthesizer in One Day [63.96075838322437]
シングルイメージのノベルビューシンセサイザーを学習するためのフレームワークを提案する。
当社のフレームワークは,トレーニング時間を10日以内から1日未満に短縮することが可能です。
論文 参考訳(メタデータ) (2023-10-04T17:57:07Z) - Template-free Articulated Neural Point Clouds for Reposable View
Synthesis [11.535440791891217]
本研究では,マルチビュー映像から動的NeRFと関連する骨格モデルを共同で学習する新しい手法を提案する。
我々のフォワードウォーピングアプローチは、新しいビューやポーズを合成する際に、最先端の視覚的忠実度を達成する。
論文 参考訳(メタデータ) (2023-05-30T14:28:08Z) - Learning to Render Novel Views from Wide-Baseline Stereo Pairs [26.528667940013598]
本稿では,単一の広線ステレオ画像ペアのみを付与した新しいビュー合成手法を提案する。
スパース観測による新しいビュー合成への既存のアプローチは、誤った3次元形状の復元によって失敗する。
対象光線に対する画像特徴を組み立てるための,効率的な画像空間のエピポーラ線サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:40:52Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - ProbNVS: Fast Novel View Synthesis with Learned Probability-Guided
Sampling [42.37704606186928]
本稿では,MVSの事前学習に基づいて,新しいビュー合成フレームワークを構築することを提案する。
本手法は,最先端のベースラインに比べて15~40倍高速なレンダリングを実現する。
論文 参考訳(メタデータ) (2022-04-07T14:45:42Z) - Street-view Panoramic Video Synthesis from a Single Satellite Image [92.26826861266784]
時間的および幾何学的に一貫したストリートビューパノラマビデオの両方を合成する新しい方法を提示する。
既存のクロスビュー合成アプローチは画像に重点を置いているが、そのような場合のビデオ合成はまだ十分な注目を集めていない。
論文 参考訳(メタデータ) (2020-12-11T20:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。