論文の概要: Digging into Depth Priors for Outdoor Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2308.04413v1
- Date: Tue, 8 Aug 2023 17:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 11:58:44.488717
- Title: Digging into Depth Priors for Outdoor Neural Radiance Fields
- Title(参考訳): 屋外神経放射領域における深度事前の探索
- Authors: Chen Wang, Jiadai Sun, Lina Liu, Chenming Wu, Zhelun Shen, Dayan Wu,
Yuchao Dai, Liangjun Zhang
- Abstract要約: 本研究では,屋外神経放射場に先行する深度を用いた総合的な研究と評価を行う。
具体的には,4つの通常使用深度を持つ2つの代表的なNeRF法を用いて,広範囲にわたる実験を行った。
実験結果から,NeRFモデルの深度事前トレーニングにおいて,実践者や研究者にとって有益である可能性が示唆された。
- 参考スコア(独自算出の注目度): 33.823425424703004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRF) have demonstrated impressive performance in
vision and graphics tasks, such as novel view synthesis and immersive reality.
However, the shape-radiance ambiguity of radiance fields remains a challenge,
especially in the sparse viewpoints setting. Recent work resorts to integrating
depth priors into outdoor NeRF training to alleviate the issue. However, the
criteria for selecting depth priors and the relative merits of different priors
have not been thoroughly investigated. Moreover, the relative merits of
selecting different approaches to use the depth priors is also an unexplored
problem. In this paper, we provide a comprehensive study and evaluation of
employing depth priors to outdoor neural radiance fields, covering common depth
sensing technologies and most application ways. Specifically, we conduct
extensive experiments with two representative NeRF methods equipped with four
commonly-used depth priors and different depth usages on two widely used
outdoor datasets. Our experimental results reveal several interesting findings
that can potentially benefit practitioners and researchers in training their
NeRF models with depth priors. Project Page:
https://cwchenwang.github.io/outdoor-nerf-depth
- Abstract(参考訳): neural radiance fields (nerf) は、新しいビュー合成や没入現実(immersive reality)など、視覚やグラフィックタスクにおいて印象的なパフォーマンスを示している。
しかしながら、放射場の形状-照度あいまいさは、特に希薄な視点設定において、依然として課題である。
近年の作業では、問題を緩和するため、奥行き先を屋外のNeRFトレーニングに統合している。
しかし, 深度事前の選択基準と, 異なる先行の相対的メリットについては, 十分に検討されていない。
さらに、深さ優先法を使うための異なるアプローチを選択するという相対的なメリットも未検討の問題である。
本稿では,屋外神経放射場に先行する深度を用いた総合的な研究と評価を行い,一般的な深度センシング技術とその適用方法について述べる。
具体的には,広く使用されている2つの屋外データセット上で,4つの共通使用深度前置法と異なる深さ使用法を備えた2つの代表的なnerf法を用いて広範囲な実験を行う。
実験結果から,NeRFモデルの深度事前トレーニングにおいて,実践者や研究者が有用である可能性が示唆された。
プロジェクトページ: https://cwchenwang.github.io/outdoor-nerf-depth
関連論文リスト
- Simple-RF: Regularizing Sparse Input Radiance Fields with Simpler Solutions [5.699788926464751]
ニューラル・ラジアンス・フィールド(NeRF)は、シーンのフォトリアリスティックなフリービューレンダリングにおいて印象的なパフォーマンスを示す。
TensoRFやZipNeRFといったNeRFの最近の改良は、最適化とレンダリングの高速化のために明示的なモデルを採用している。
放射場によって推定される深度を監督することは、より少ない視点で効果的に学習することに役立つことを示す。
論文 参考訳(メタデータ) (2024-04-29T18:00:25Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Depth-guided NeRF Training via Earth Mover's Distance [0.6749750044497732]
我々は、NeRF監視のための深度における不確実性に対する新しいアプローチを提案する。
既訓練拡散モデルを用いて,デノナイジング過程における深度予測と不確かさの把握を行う。
我々の深度誘導型NeRFは、標準深度測定値のすべてのベースラインを大きなマージンで上回る。
論文 参考訳(メタデータ) (2024-03-19T23:54:07Z) - Outdoor Monocular Depth Estimation: A Research Review [0.8749675983608171]
本稿では, 利用可能なデータセット, 深度推定方法, 研究成果, トレンド, 課題, およびオープンリサーチに必要な機会について概説する。
我々の知る限り、公開調査では、屋外深度推定技術と研究範囲の総合的な収集は行われていない。
論文 参考訳(メタデータ) (2022-05-03T10:10:08Z) - Towards Multimodal Depth Estimation from Light Fields [29.26003765978794]
現在の深さ推定法は、異なる深さの複数の物体が単一のピクセルの色に寄与したとしても、単一の「真の」深さしか考慮していない。
これは、異なる深さの複数の物体が1つのピクセルの色に寄与したとしても、単一の「真の」深さのみを考慮しているデュー・カレント手法であると主張する。
我々は,ピクセルの色に寄与するすべての物体の深さを含む,最初の「マルチモーダル光場深度データセット」をコントリビュートする。
論文 参考訳(メタデータ) (2022-03-30T18:00:00Z) - Deep Learning for Face Anti-Spoofing: A Survey [74.42603610773931]
対面防止(FAS)は、プレゼンテーションアタック(PA)から顔認識システムを保護する上で重要な役割を担っているため、近年注目を集めている。
論文 参考訳(メタデータ) (2021-06-28T19:12:00Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。