論文の概要: PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images
- arxiv url: http://arxiv.org/abs/2208.08049v1
- Date: Wed, 17 Aug 2022 03:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:59:36.072577
- Title: PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images
- Title(参考訳): PDRF-Blurry画像からの高速・ロバストなシーン再構成のためのプログレッシブデブレアリング放射場
- Authors: Cheng Peng, Rama Chellappa
- Abstract要約: PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
- 参考スコア(独自算出の注目度): 75.87721926918874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Progressively Deblurring Radiance Field (PDRF), a novel approach
to efficiently reconstruct high quality radiance fields from blurry images.
While current State-of-The-Art (SoTA) scene reconstruction methods achieve
photo-realistic rendering results from clean source views, their performances
suffer when the source views are affected by blur, which is commonly observed
for images in the wild. Previous deblurring methods either do not account for
3D geometry, or are computationally intense. To addresses these issues, PDRF, a
progressively deblurring scheme in radiance field modeling, accurately models
blur by incorporating 3D scene context. PDRF further uses an efficient
importance sampling scheme, which results in fast scene optimization.
Specifically, PDRF proposes a Coarse Ray Renderer to quickly estimate voxel
density and feature; a Fine Voxel Renderer is then used to achieve high quality
ray tracing. We perform extensive experiments and show that PDRF is 15X faster
than previous SoTA while achieving better performance on both synthetic and
real scenes.
- Abstract(参考訳): 本稿では,高画質の放射場をぼやけた画像から効率的に再構成する手法であるPDRF(Progressive Deblurring Radiance Field)を提案する。
現状の SoTA (State-of-The-Art) シーン再構築手法はクリーンソースビューから写真リアルなレンダリング結果が得られるが,その性能は,野生の画像でよく見られるぼやけの影響を受けると損なわれる。
従来のデブロワーリング法は3次元幾何学を考慮しないか、あるいは計算的に強い。
これらの問題に対処するため、PDRFは3Dシーンコンテキストを組み込むことで正確なモデルの曖昧化を図っている。
PDRFはさらに、高速なシーン最適化をもたらす効率的な重要度サンプリングスキームを使用している。
具体的には、PDRFはボクセル密度と特徴を素早く推定する粗いレイレンダーを提案し、次いで高品質なレイトレーシングを実現するためにファイン・ボクセル・レンダーを使用する。
幅広い実験を行い, pdrf が従来の sota の15倍高速であり, 合成シーンと実シーンの両方で性能が向上することを示した。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - Mesh2NeRF: Direct Mesh Supervision for Neural Radiance Field Representation and Generation [51.346733271166926]
Mesh2NeRFは、3次元生成タスクのためのテクスチャメッシュから地上構造放射場を導出するアプローチである。
各種タスクにおけるMesh2NeRFの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-28T11:22:53Z) - RadSplat: Radiance Field-Informed Gaussian Splatting for Robust Real-Time Rendering with 900+ FPS [47.47003067842151]
本稿では,複雑なシーンをリアルタイムにレンダリングする軽量なRadSplatを提案する。
まず, 優先信号として放射場を用い, 点ベースシーン表現の最適化を行い, 品質の向上とロバストな最適化を実現した。
次に,高い品質を維持しつつ全体の点数を削減し,より高速な推論速度でより小型でコンパクトなシーン表現を実現する新しいプルーニング手法を開発した。
論文 参考訳(メタデータ) (2024-03-20T17:59:55Z) - GANeRF: Leveraging Discriminators to Optimize Neural Radiance Fields [12.92658687936068]
我々は、GAN(Generative Adversarial Network)を利用して、現実的な画像を生成し、それを用いて、NeRFを用いた3次元シーン再構成におけるリアリズムを強化する。
逆微分器を用いてシーンのパッチ分布を学習し、ラディアンスフィールド再構成に対するフィードバックを提供する。
レンダリングアーティファクトは、マルチビューパスレンダリング制約を課すことで、基礎となる3D表現を直接修復する。
論文 参考訳(メタデータ) (2023-06-09T17:12:35Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Efficient Neural Radiance Fields with Learned Depth-Guided Sampling [43.79307270743013]
本稿では,暗示放射場と暗示深度マップを組み合わせたハイブリッドシーン表現を提案する。
実験の結果,提案手法はDTU, Real Forward- facing および NeRF Synthetic データセット上での最先端性能を示すことがわかった。
また,動的人間パフォーマーの視点自由映像をリアルタイムに合成する方法について述べる。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。