論文の概要: Toward Real-World Light Field Super-Resolution
- arxiv url: http://arxiv.org/abs/2305.18994v1
- Date: Tue, 30 May 2023 12:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 16:22:05.680932
- Title: Toward Real-World Light Field Super-Resolution
- Title(参考訳): 現実の光場超解像を目指して
- Authors: Zeyu Xiao, Ruisheng Gao, Yutong Liu, Yueyi Zhang, Zhiwei Xiong
- Abstract要約: 我々は,Lytro ILLUMカメラを用いて,室内および屋外の様々なシーンの低解像度と高解像度の2つの光場をキャプチャした,世界初の実世界の光場SRデータセットLytroZoomを紹介する。
また,Omni-Frequency Projection Network (OFPNet)を提案する。
実験によると、LytroZoomでトレーニングされたモデルは、合成データセットでトレーニングされたモデルよりも優れており、多様なコンテンツやデバイスに一般化可能である。
- 参考スコア(独自算出の注目度): 39.90540075718412
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning has opened up new possibilities for light field
super-resolution (SR), but existing methods trained on synthetic datasets with
simple degradations (e.g., bicubic downsampling) suffer from poor performance
when applied to complex real-world scenarios. To address this problem, we
introduce LytroZoom, the first real-world light field SR dataset capturing
paired low- and high-resolution light fields of diverse indoor and outdoor
scenes using a Lytro ILLUM camera. Additionally, we propose the Omni-Frequency
Projection Network (OFPNet), which decomposes the omni-frequency components and
iteratively enhances them through frequency projection operations to address
spatially variant degradation processes present in all frequency components.
Experiments demonstrate that models trained on LytroZoom outperform those
trained on synthetic datasets and are generalizable to diverse content and
devices. Quantitative and qualitative evaluations verify the superiority of
OFPNet. We believe this work will inspire future research in real-world light
field SR.
- Abstract(参考訳): ディープラーニングは、ライトフィールドスーパーレゾリューション(sr)の新たな可能性を開いたが、単純な劣化(bicubic downsamplingなど)を持つ合成データセットでトレーニングされた既存の方法では、複雑な実世界のシナリオに適用するとパフォーマンスが低下する。
この問題に対処するため,Lytro ILLUMカメラを用いて屋内および屋外の様々なシーンの低解像度と高解像度の2つの光場をキャプチャする,世界初の実世界の光場SRデータセットであるLytroZoomを紹介した。
さらに,全周波成分を分解し,全周波成分を反復的に拡張する全周波投影ネットワーク(ofpnet)を提案する。
実験によると、LytroZoomでトレーニングされたモデルは、合成データセットでトレーニングされたモデルよりも優れており、多様なコンテンツやデバイスに一般化可能である。
OFPNetの優位性を定量的かつ質的に評価する。
我々は、この研究が現実世界の光場SRの将来の研究に刺激を与えると信じている。
関連論文リスト
- Incorporating Degradation Estimation in Light Field Spatial Super-Resolution [54.603510192725786]
本稿では,多種多様な劣化型を扱うために,明示的な劣化推定を組み込んだ効果的なブラインド光場SR法LF-DESTを提案する。
ベンチマークデータセットに対する広範な実験を行い、光場SRにおける様々な劣化シナリオにおいてLF-DESTが優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2024-05-11T13:14:43Z) - PU-Ray: Domain-Independent Point Cloud Upsampling via Ray Marching on Neural Implicit Surface [5.78575346449322]
我々は任意のレートで新しいレイベースのアップサンプリング手法を提案し、各クエリ線とその対応するパッチに対して深さ予測を行う。
非符号距離関数 (UDF) で定義された神経暗示面上の球面追跡線マーチングアルゴリズムをシミュレーションした。
ルールベースの中間点問合せサンプリング手法は, 最寄りの近傍の復元損失関数を用いて訓練されたエンドツーエンドモデルを必要としない, より均等な分散点を生成する。
論文 参考訳(メタデータ) (2023-10-12T22:45:03Z) - Expanding Synthetic Real-World Degradations for Blind Video Super
Resolution [3.474523163017713]
ビデオ超解像(VSR)技術はここ数年で大幅に改善され、合成データに顕著な性能を示した。
しかし、実世界のビデオデータにおけるそれらのパフォーマンスは、実世界の劣化と不整合のビデオフレームの複雑さに悩まされている。
本稿では,合成学習データセットにおける実世界の劣化について述べる。
論文 参考訳(メタデータ) (2023-05-04T08:58:31Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - A Large-Scale Outdoor Multi-modal Dataset and Benchmark for Novel View
Synthesis and Implicit Scene Reconstruction [26.122654478946227]
ニューラル・ラジアンス・フィールズ(NeRF)は、単一物体のシーン再構成と新しいビュー合成において印象的な成果を上げている。
高価なデータ取得と校正コストのため、大規模なNeRF評価のための統一された屋外シーンデータセットは存在しない。
本稿では,大規模な屋外マルチモーダルデータセットであるOMMOデータセットを提案する。
論文 参考訳(メタデータ) (2023-01-17T10:15:32Z) - IntrinsicNeRF: Learning Intrinsic Neural Radiance Fields for Editable
Novel View Synthesis [90.03590032170169]
内在性ニューラルレンダリング法に内在性分解を導入した内在性ニューラルレイディアンス場(IntrinsicNeRF)を提案する。
そこで,本研究では,オブジェクト固有・ルームスケールシーンと合成・実単語データの両方を用いて,一貫した本質的な分解結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-02T22:45:11Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。