論文の概要: Progressive Multi-scale Light Field Networks
- arxiv url: http://arxiv.org/abs/2208.06710v1
- Date: Sat, 13 Aug 2022 19:02:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:39:43.194290
- Title: Progressive Multi-scale Light Field Networks
- Title(参考訳): プログレッシブマルチスケール光電界ネットワーク
- Authors: David Li, Amitabh Varshney
- Abstract要約: 複数レベルの詳細で光電場を符号化するプログレッシブ・マルチスケール光電場ネットワークを提案する。
低レベルの詳細は、プログレッシブストリーミングとレンダリング時間の短縮を可能にする、ニューラルネットワークの重みを減らしてエンコードされる。
- 参考スコア(独自算出の注目度): 14.050802766699084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural representations have shown great promise in their ability to represent
radiance and light fields while being very compact compared to the image set
representation. However, current representations are not well suited for
streaming as decoding can only be done at a single level of detail and requires
downloading the entire neural network model. Furthermore, high-resolution light
field networks can exhibit flickering and aliasing as neural networks are
sampled without appropriate filtering. To resolve these issues, we present a
progressive multi-scale light field network that encodes a light field with
multiple levels of detail. Lower levels of detail are encoded using fewer
neural network weights enabling progressive streaming and reducing rendering
time. Our progressive multi-scale light field network addresses aliasing by
encoding smaller anti-aliased representations at its lower levels of detail.
Additionally, per-pixel level of detail enables our representation to support
dithered transitions and foveated rendering.
- Abstract(参考訳): ニューラルネットワークの表現は、画像集合の表現に比べて非常にコンパクトでありながら、放射率と光場を表現できるという大きな可能性を秘めている。
しかし、現在の表現は、デコーディングは単一の詳細レベルでのみ行え、ニューラルネットワークモデル全体をダウンロードする必要があるため、ストリーミングには適していない。
さらに、適切なフィルタリングをせずにニューラルネットワークをサンプリングすることで、高解像度の光電界ネットワークはフリックやエイリアスを示すことができる。
これらの問題を解決するために、複数の詳細レベルを持つ光フィールドを符号化するプログレッシブ・マルチスケール光フィールドネットワークを提案する。
低レベルのディテールは、プログレッシブなストリーミングを可能にし、レンダリング時間を短縮できるニューラルネットワーク重みでエンコードされる。
我々のプログレッシブ・マルチスケール光電界ネットワークは、より低レベルのディテールで小さなアンチエイリアス表現を符号化することでエイリアスに対処する。
さらに、ピクセル単位のディテールにより、ディザリング遷移とフェーブレートレンダリングをサポートすることができます。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - Continuous Levels of Detail for Light Field Networks [6.94680554206111]
連続LODを用いて光電場ネットワークを符号化し、レンダリング条件に微調整できる手法を提案する。
トレーニング手順では,様々なLODで効率よく連続的なフィルタリングが可能な要約領域テーブルフィルタを用いている。
また、サリエンシに基づく重要度サンプリングを用いて、光電場ネットワークが、特に低いLODで、その容量を分散できるようにする。
論文 参考訳(メタデータ) (2023-09-20T19:02:20Z) - Efficient View Synthesis with Neural Radiance Distribution Field [61.22920276806721]
我々は,リアルタイムに効率的なビュー合成を目標とするニューラルレージアンス分布場(NeRDF)という新しい表現を提案する。
我々は、NeLFのように1ピクセル当たりの1つのネットワーク転送でレンダリング速度を保ちながら、NeRFに似た小さなネットワークを使用する。
実験の結果,提案手法は既存の手法よりも速度,品質,ネットワークサイズとのトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2023-08-22T02:23:28Z) - Volume Feature Rendering for Fast Neural Radiance Field Reconstruction [11.05302598034426]
ニューラルレイディアンス場(NeRF)は、異なる位置と視点から撮影された多視点画像から現実的な新しいビューを合成することができる。
NeRFのレンダリングパイプラインでは、ニューラルネットワークはシーンを独立して表現したり、期待される色や密度のポイントのクエリ可能な特徴ベクトルを変換するために使用される。
提案手法では,まず,まず線の特徴ベクトルを描画し,次にニューラルネットワークにより最終画素色に変換する。
論文 参考訳(メタデータ) (2023-05-29T06:58:27Z) - Learning Generalizable Light Field Networks from Few Images [7.672380267651058]
ニューラル光場表現に基づく数発の新規ビュー合成のための新しい戦略を提案する。
提案手法は,最先端のニューラルラジアンスフィールドに基づく競合に対して,合成および実MVSデータ上での競合性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T14:47:11Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - PINs: Progressive Implicit Networks for Multi-Scale Neural
Representations [68.73195473089324]
周波数符号化のインクリメンタルな集合に階層構造を露出するプログレッシブな位置符号化を提案する。
本モデルでは,広帯域のシーンを正確に再構成し,プログレッシブなディテールでシーン表現を学習する。
いくつかの2次元および3次元データセットの実験では、ベースラインと比較して、再構築精度、表現能力、トレーニング速度が改善されている。
論文 参考訳(メタデータ) (2022-02-09T20:33:37Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - Learning light field synthesis with Multi-Plane Images: scene encoding
as a recurrent segmentation task [30.058283056074426]
本稿では、入力ビューのスパースセットを多面画像(MPI)に変換することで、大規模なベースライン光場からのビュー合成の問題に対処する。
利用可能なデータセットは少ないため、広範なトレーニングを必要としない軽量ネットワークを提案する。
我々のモデルは、RGB層を推定することを学ぶのではなく、MPIアルファ層内のシーン幾何学を符号化するだけであり、それはセグメンテーションタスクに帰着する。
論文 参考訳(メタデータ) (2020-02-12T14:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。