論文の概要: Light Field Spatial Resolution Enhancement Framework
- arxiv url: http://arxiv.org/abs/2405.02787v1
- Date: Sun, 5 May 2024 02:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 18:20:16.712956
- Title: Light Field Spatial Resolution Enhancement Framework
- Title(参考訳): 光電界空間分解能向上フレームワーク
- Authors: Javeria Shabbir, Muhammad Zeshan. Alam, M. Umair Mukati,
- Abstract要約: 解像度向上のための新しい光場フレームワークを提案する。
第1モジュールは高解像度のオールインフォーカス画像を生成する。
第2のモジュール、テクスチャ・トランスフォーマー・ネットワークは、各光界視点の分解能を独立して向上させる。
- 参考スコア(独自算出の注目度): 0.24578723416255746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field (LF) imaging captures both angular and spatial light distributions, enabling advanced photographic techniques. However, micro-lens array (MLA)- based cameras face a spatial-angular resolution tradeoff due to a single shared sensor. We propose a novel light field framework for resolution enhancement, employing a modular approach. The first module generates a high-resolution, all-in-focus image. The second module, a texture transformer network, enhances the resolution of each light field perspective independently using the output of the first module as a reference image. The final module leverages light field regularity to jointly improve resolution across all LF image perspectives. Our approach demonstrates superior performance to existing methods in both qualitative and quantitative evaluations.
- Abstract(参考訳): 光場(LF)イメージングは、角と空間の両方の光の分布を捉え、高度な写真技術を可能にする。
しかし、マイクロレンズアレイ(MLA)ベースのカメラは、単一の共有センサによって空間角分解能のトレードオフに直面している。
モジュラーアプローチを用いて,解像度向上のための新しい光場フレームワークを提案する。
第1モジュールは高解像度のオールインフォーカス画像を生成する。
第2モジュールはテクスチャ・トランスフォーマー・ネットワークであり、第1モジュールの出力を基準画像として独立して各光界視点の分解能を高める。
最終モジュールは光場規則性を利用して、すべてのLF画像の視点における解像度を共同的に改善する。
本手法は,定性評価と定量的評価の両方において既存手法よりも優れた性能を示す。
関連論文リスト
- LGFN: Lightweight Light Field Image Super-Resolution using Local Convolution Modulation and Global Attention Feature Extraction [5.461017270708014]
本稿では,LGFN という軽量なモデルを提案する。このモデルでは,異なるビューの局所的特徴とグローバル的特徴と,LF 画像 SR のための異なるチャネルの特徴を統合している。
我々のモデルは0.45Mのパラメータと19.33GのFLOPを持つ。
論文 参考訳(メタデータ) (2024-09-26T11:53:25Z) - Unsupervised Learning of High-resolution Light Field Imaging via Beam
Splitter-based Hybrid Lenses [42.5604477188514]
ビームスプリッタを用いたハイブリッド光フィールドイメージングプロトタイプを設計し、4次元光フィールド画像と高分解能2次元画像とを同時に記録する。
2次元画像は、4次元光場画像の低分解能中心部分開口像に対応する高分解能基底真理とみなすことができる。
ハイブリッド光場データセットを用いた教師なし学習に基づく超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-29T10:30:02Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Learning Texture Transformer Network for Light Field Super-Resolution [1.5469452301122173]
変換器ネットワーク(TTSR)を利用した光画像の空間分解能向上手法を提案する。
その結果,2次元の光場画像より約4dBから6dBのPSNRゲインが得られた。
論文 参考訳(メタデータ) (2022-10-09T15:16:07Z) - Sub-Aperture Feature Adaptation in Single Image Super-resolution Model
for Light Field Imaging [17.721259583120396]
本稿では,この強力なSISRモデルを活用するために,事前訓練されたSingle Image Super Resolution (SISR)ネットワークにおける適応モジュールを提案する。
これは、LF画像の空間的および角的情報をさらに活用し、超解像性能を向上させるためのSISRネットワークの適応である。
論文 参考訳(メタデータ) (2022-07-25T03:43:56Z) - Dual-Camera Super-Resolution with Aligned Attention Modules [56.54073689003269]
デュアルカメラ・スーパーレゾリューション(DCSR)に着目したレファレンスベース・スーパーレゾリューション(RefSR)への新しいアプローチを提案する。
提案手法は,空間アライメント操作と標準パッチベースの特徴マッチングを一般化する。
実世界の画像とトレーニング画像の領域ギャップを埋めるために,自己監督型領域適応戦略を提案する。
論文 参考訳(メタデータ) (2021-09-03T07:17:31Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。