論文の概要: Unsupervised Learning of High-resolution Light Field Imaging via Beam
Splitter-based Hybrid Lenses
- arxiv url: http://arxiv.org/abs/2402.19020v1
- Date: Thu, 29 Feb 2024 10:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:28:11.532653
- Title: Unsupervised Learning of High-resolution Light Field Imaging via Beam
Splitter-based Hybrid Lenses
- Title(参考訳): ビームスプリッタ型ハイブリッドレンズを用いた高分解能光場イメージングの教師なし学習
- Authors: Jianxin Lei, Chengcai Xu, Langqing Shi, Junhui Hou, Ping Zhou
- Abstract要約: ビームスプリッタを用いたハイブリッド光フィールドイメージングプロトタイプを設計し、4次元光フィールド画像と高分解能2次元画像とを同時に記録する。
2次元画像は、4次元光場画像の低分解能中心部分開口像に対応する高分解能基底真理とみなすことができる。
ハイブリッド光場データセットを用いた教師なし学習に基づく超解像フレームワークを提案する。
- 参考スコア(独自算出の注目度): 42.5604477188514
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we design a beam splitter-based hybrid light field imaging
prototype to record 4D light field image and high-resolution 2D image
simultaneously, and make a hybrid light field dataset. The 2D image could be
considered as the high-resolution ground truth corresponding to the
low-resolution central sub-aperture image of 4D light field image.
Subsequently, we propose an unsupervised learning-based super-resolution
framework with the hybrid light field dataset, which adaptively settles the
light field spatial super-resolution problem with a complex degradation model.
Specifically, we design two loss functions based on pre-trained models that
enable the super-resolution network to learn the detailed features and light
field parallax structure with only one ground truth. Extensive experiments
demonstrate the same superiority of our approach with supervised learning-based
state-of-the-art ones. To our knowledge, it is the first end-to-end
unsupervised learning-based spatial super-resolution approach in light field
imaging research, whose input is available from our beam splitter-based hybrid
light field system. The hardware and software together may help promote the
application of light field super-resolution to a great extent.
- Abstract(参考訳): 本稿では,ビームスプリッタを用いたハイブリッド光フィールドイメージングプロトタイプを設計し,4次元光フィールド画像と高分解能2次元画像を同時に記録し,ハイブリッド光フィールドデータセットを作成する。
2次元画像は4次元光野画像の低分解能中央サブアパーチャ画像に対応する高分解能地盤真理と考えることができる。
次に,複合分解モデルを用いて光場空間超解像問題を適応的に解決するハイブリッド光フィールドデータセットを用いた教師なし学習による超解像フレームワークを提案する。
具体的には,事前学習モデルに基づく2つの損失関数を設計し,超解像ネットワークが1つの基底的真理だけで詳細な特徴と光場パララックス構造を学習できるようにする。
広範囲にわたる実験は、教師付き学習に基づく最先端技術によるアプローチの優位性を実証している。
私たちの知る限りでは、光フィールドイメージング研究において、エンドツーエンドの教師なし学習に基づく空間超解像アプローチとして初めてであり、ビームスプリッターベースのハイブリッド光フィールドシステムから入力を受けられる。
ハードウェアとソフトウェアは、光場超解像の応用を大いに促進するのに役立つかもしれない。
関連論文リスト
- Phase Guided Light Field for Spatial-Depth High Resolution 3D Imaging [36.208109063579066]
3Dイメージングでは、光界カメラは通常単発で、空間解像度と深度精度の低下に悩まされる。
そこで本研究では,オフザシェルフ光場カメラの空間分解能と深度を両立させる位相誘導光場アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:08:15Z) - ImmersiveNeRF: Hybrid Radiance Fields for Unbounded Immersive Light
Field Reconstruction [32.722973192853296]
本稿では,入射光場再構成のためのハイブリッド放射場表現を提案する。
我々は2つの異なる空間マッピング戦略を持つ2つの別々の放射場として、前景と背景を表現している。
また、THUImmersiveという新しい没入型光フィールドデータセットも提供し、より広い空間6DoFの没入型レンダリング効果を実現する可能性を秘めている。
論文 参考訳(メタデータ) (2023-09-04T05:57:16Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Learning Texture Transformer Network for Light Field Super-Resolution [1.5469452301122173]
変換器ネットワーク(TTSR)を利用した光画像の空間分解能向上手法を提案する。
その結果,2次元の光場画像より約4dBから6dBのPSNRゲインが得られた。
論文 参考訳(メタデータ) (2022-10-09T15:16:07Z) - Dual-Camera Super-Resolution with Aligned Attention Modules [56.54073689003269]
デュアルカメラ・スーパーレゾリューション(DCSR)に着目したレファレンスベース・スーパーレゾリューション(RefSR)への新しいアプローチを提案する。
提案手法は,空間アライメント操作と標準パッチベースの特徴マッチングを一般化する。
実世界の画像とトレーニング画像の領域ギャップを埋めるために,自己監督型領域適応戦略を提案する。
論文 参考訳(メタデータ) (2021-09-03T07:17:31Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。