論文の概要: Light Field Implicit Representation for Flexible Resolution
Reconstruction
- arxiv url: http://arxiv.org/abs/2112.00185v1
- Date: Tue, 30 Nov 2021 23:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 15:26:21.174291
- Title: Light Field Implicit Representation for Flexible Resolution
Reconstruction
- Title(参考訳): フレキシブルレゾリューションのための光電場入射表現
- Authors: Paramanand Chandramouli, Hendrik Sommerhoff, Andreas Kolb
- Abstract要約: 入力ビューのスパースセットに条件付き4次元光場を暗黙的に表現するモデルを提案する。
我々のモデルは、連続的な座標の光場値を出力するように訓練されている。
実験により,本手法は,高速かつ高速なビュー合成のための最先端性能を実現することを示す。
- 参考スコア(独自算出の注目度): 9.173467982128514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the recent advances in implicitly representing signals with
trained neural networks, we aim to learn a continuous representation for
narrow-baseline 4D light fields. We propose an implicit representation model
for 4D light fields which is conditioned on a sparse set of input views. Our
model is trained to output the light field values for a continuous range of
query spatio-angular coordinates. Given a sparse set of input views, our scheme
can super-resolve the input in both spatial and angular domains by flexible
factors. consists of a feature extractor and a decoder which are trained on a
dataset of light field patches. The feature extractor captures per-pixel
features from the input views. These features can be resized to a desired
spatial resolution and fed to the decoder along with the query coordinates.
This formulation enables us to reconstruct light field views at any desired
spatial and angular resolution. Additionally, our network can handle scenarios
in which input views are either of low-resolution or with missing pixels.
Experiments show that our method achieves state-of-the-art performance for the
task of view synthesis while being computationally fast.
- Abstract(参考訳): トレーニングニューラルネットワークを用いた信号の暗黙的表現の最近の進歩に触発されて,狭義の4D光場に対する連続表現の学習を目指す。
入力ビューのスパース集合を条件とした4次元光場に対する暗黙表現モデルを提案する。
本モデルは,連続的なクエリ空間角座標の光場値を出力するように訓練されている。
入力ビューのスパースセットが与えられた場合、フレキシブルな因子によって空間領域と角領域の両方の入力を超解ける。
特徴抽出器とデコーダで構成され、ライトフィールドパッチのデータセットでトレーニングされる。
feature extractorは、入力ビューからピクセル単位の機能をキャプチャする。
これらの機能は所望の空間分解能にリサイズでき、クエリ座標と共にデコーダに供給される。
この定式化により、任意の所望の空間的および角的解像度で光界ビューを再構築することができる。
さらに、我々のネットワークは、入力ビューが低解像度または欠落ピクセルのいずれかであるシナリオを処理できる。
実験により,本手法は高速かつ高速な視線合成作業において,最先端の性能を実現することを示す。
関連論文リスト
- CrossModalityDiffusion: Multi-Modal Novel View Synthesis with Unified Intermediate Representation [0.5242869847419834]
CrossModalityDiffusion(クロスモダリティ・ディフュージョン)は、シーン幾何学の知識を必要とせず、様々なモダリティにまたがる画像を生成するために設計されたモジュラーフレームワークである。
異なるモジュールを共同でトレーニングすることで、フレームワーク内のすべてのモダリティに対して一貫した幾何学的理解が保証されることを示す。
合成ShapeNet車のデータセット上でのCrossModalityDiffusionの機能を検証する。
論文 参考訳(メタデータ) (2025-01-16T20:56:32Z) - Neural Directional Encoding for Efficient and Accurate View-Dependent Appearance Modeling [47.86734601629109]
NDEは特徴グリッドに基づく空間符号化の概念を角領域に転送する。
合成データと実データの両方の実験により、NDEを用いたNeRFモデルは、スペクトルオブジェクトのビュー合成において、技術の状態よりも優れていたことが示されている。
論文 参考訳(メタデータ) (2024-05-23T17:56:34Z) - NeLF-Pro: Neural Light Field Probes for Multi-Scale Novel View Synthesis [27.362216326282145]
NeLF-Proは、様々な自然界の光場をモデル化し、再構成するための新しい表現である。
私たちの中心となる考え方は、シーンの光場を空間的に異なる学習可能な表現に焼くことです。
論文 参考訳(メタデータ) (2023-12-20T17:18:44Z) - Learning-based Spatial and Angular Information Separation for Light
Field Compression [29.827366575505557]
光場の角情報と空間情報を分離できる新しいニューラルネットワークを提案する。
ネットワークは、全サブアパーチャ画像(SAI)間で共有される空間カーネルを用いて空間情報を表現し、各SAIに対して角カーネルの集合を用いた角情報を表す。
論文 参考訳(メタデータ) (2023-04-13T08:02:38Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Content-aware Warping for View Synthesis [110.54435867693203]
本稿では,比較的大きな近傍の画素の重みを,軽量ニューラルネットワークによる文脈情報から適応的に学習するコンテンツ認識ワープを提案する。
この学習可能なワープモジュールに基づいて、2つのソースビューから新しいビューを合成するエンド・ツー・エンドの学習ベースのフレームワークを提案する。
広いベースラインと非構造的多視点データセットを有する構造的光フィールドデータセットの実験結果から,提案手法は,定量的かつ視覚的に,最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-01-22T11:35:05Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - Generative Modelling of BRDF Textures from Flash Images [50.660026124025265]
我々は、容易にキャプチャ、セマンティックな編集、一貫した、視覚素材の外観の効率よく再現できる潜在空間を学習する。
2番目のステップでは、材料コードに基づいて、私たちの方法は、BRDFモデルパラメータの無限で多様な空間フィールドを生成します。
論文 参考訳(メタデータ) (2021-02-23T18:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。