論文の概要: PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images
- arxiv url: http://arxiv.org/abs/2208.08049v1
- Date: Wed, 17 Aug 2022 03:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:59:36.072577
- Title: PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images
- Title(参考訳): PDRF-Blurry画像からの高速・ロバストなシーン再構成のためのプログレッシブデブレアリング放射場
- Authors: Cheng Peng, Rama Chellappa
- Abstract要約: PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
- 参考スコア(独自算出の注目度): 75.87721926918874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Progressively Deblurring Radiance Field (PDRF), a novel approach
to efficiently reconstruct high quality radiance fields from blurry images.
While current State-of-The-Art (SoTA) scene reconstruction methods achieve
photo-realistic rendering results from clean source views, their performances
suffer when the source views are affected by blur, which is commonly observed
for images in the wild. Previous deblurring methods either do not account for
3D geometry, or are computationally intense. To addresses these issues, PDRF, a
progressively deblurring scheme in radiance field modeling, accurately models
blur by incorporating 3D scene context. PDRF further uses an efficient
importance sampling scheme, which results in fast scene optimization.
Specifically, PDRF proposes a Coarse Ray Renderer to quickly estimate voxel
density and feature; a Fine Voxel Renderer is then used to achieve high quality
ray tracing. We perform extensive experiments and show that PDRF is 15X faster
than previous SoTA while achieving better performance on both synthetic and
real scenes.
- Abstract(参考訳): 本稿では,高画質の放射場をぼやけた画像から効率的に再構成する手法であるPDRF(Progressive Deblurring Radiance Field)を提案する。
現状の SoTA (State-of-The-Art) シーン再構築手法はクリーンソースビューから写真リアルなレンダリング結果が得られるが,その性能は,野生の画像でよく見られるぼやけの影響を受けると損なわれる。
従来のデブロワーリング法は3次元幾何学を考慮しないか、あるいは計算的に強い。
これらの問題に対処するため、PDRFは3Dシーンコンテキストを組み込むことで正確なモデルの曖昧化を図っている。
PDRFはさらに、高速なシーン最適化をもたらす効率的な重要度サンプリングスキームを使用している。
具体的には、PDRFはボクセル密度と特徴を素早く推定する粗いレイレンダーを提案し、次いで高品質なレイトレーシングを実現するためにファイン・ボクセル・レンダーを使用する。
幅広い実験を行い, pdrf が従来の sota の15倍高速であり, 合成シーンと実シーンの両方で性能が向上することを示した。
関連論文リスト
- VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - GANeRF: Leveraging Discriminators to Optimize Neural Radiance Fields [12.92658687936068]
我々は、GAN(Generative Adversarial Network)を利用して、現実的な画像を生成し、それを用いて、NeRFを用いた3次元シーン再構成におけるリアリズムを強化する。
逆微分器を用いてシーンのパッチ分布を学習し、ラディアンスフィールド再構成に対するフィードバックを提供する。
レンダリングアーティファクトは、マルチビューパスレンダリング制約を課すことで、基礎となる3D表現を直接修復する。
論文 参考訳(メタデータ) (2023-06-09T17:12:35Z) - HiFA: High-fidelity Text-to-3D Generation with Advanced Diffusion
Guidance [19.252300247300145]
本研究は,高品質なテキスト・ツー・3D生成を実現するための全体的サンプリングと平滑化手法を提案する。
テキスト・画像拡散モデルの潜時空間と画像空間における復調スコアを計算する。
単一段最適化において高品質なレンダリングを生成するため,我々はNeRF線に沿ったz座標の分散の正則化を提案する。
論文 参考訳(メタデータ) (2023-05-30T05:56:58Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Efficient Neural Radiance Fields with Learned Depth-Guided Sampling [43.79307270743013]
本稿では,暗示放射場と暗示深度マップを組み合わせたハイブリッドシーン表現を提案する。
実験の結果,提案手法はDTU, Real Forward- facing および NeRF Synthetic データセット上での最先端性能を示すことがわかった。
また,動的人間パフォーマーの視点自由映像をリアルタイムに合成する方法について述べる。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。