論文の概要: Arbitrary Volumetric Refocusing of Dense and Sparse Light Fields
- arxiv url: http://arxiv.org/abs/2502.19238v1
- Date: Wed, 26 Feb 2025 15:47:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:56:33.619464
- Title: Arbitrary Volumetric Refocusing of Dense and Sparse Light Fields
- Title(参考訳): 密度・スパース光場の任意体積再焦点
- Authors: Tharindu Samarakoon, Kalana Abeywardena, Chamira U. S. Edussooriya,
- Abstract要約: 本稿では,高密度あるいはスパース光場における複数の任意の領域を同時に再焦点するエンドツーエンドパイプラインを提案する。
我々は、LFを再フォーカスするために、典型的なシフト・アンド・サム方式の画素依存シフトを用いる。
ゴーストアーティファクトをほぼ完全に除去するために,U-Netアーキテクチャに基づくディープラーニングモデルを採用している。
- 参考スコア(独自算出の注目度): 3.114475381459836
- License:
- Abstract: A four-dimensional light field (LF) captures both textural and geometrical information of a scene in contrast to a two-dimensional image that captures only the textural information of a scene. Post-capture refocusing is an exciting application of LFs enabled by the geometric information captured. Previously proposed LF refocusing methods are mostly limited to the refocusing of single planar or volumetric region of a scene corresponding to a depth range and cannot simultaneously generate in-focus and out-of-focus regions having the same depth range. In this paper, we propose an end-to-end pipeline to simultaneously refocus multiple arbitrary planar or volumetric regions of a dense or a sparse LF. We employ pixel-dependent shifts with the typical shift-and-sum method to refocus an LF. The pixel-dependent shifts enables to refocus each pixel of an LF independently. For sparse LFs, the shift-and-sum method introduces ghosting artifacts due to the spatial undersampling. We employ a deep learning model based on U-Net architecture to almost completely eliminate the ghosting artifacts. The experimental results obtained with several LF datasets confirm the effectiveness of the proposed method. In particular, sparse LFs refocused with the proposed method archive structural similarity index higher than 0.9 despite having only 20% of data compared to dense LFs.
- Abstract(参考訳): 4次元光フィールド(LF)は、シーンのテクスチャ情報のみをキャプチャする2次元画像とは対照的に、シーンのテクスチャ情報と幾何学的情報の両方をキャプチャする。
キャプチャー後再フォーカスは、幾何情報によって得られるLFのエキサイティングな応用である。
従来提案されたLF再焦点法は,奥行き範囲に応じたシーンの単一平面領域や体積領域の再焦点化に限られており,同一深度範囲の内焦点領域と外焦点領域を同時に生成することができない。
本稿では,高密度あるいはスパースLFの任意の平面領域や体積領域を複数同時に再焦点するエンドツーエンドパイプラインを提案する。
我々は、LFを再フォーカスするために、典型的なシフト・アンド・サム方式の画素依存シフトを用いる。
画素依存シフトは、LFの各画素を独立して再フォーカスすることができる。
スパースLFでは、シフト・アンド・サム法が空間アンダーサンプリングによるゴーストアーティファクトを導入している。
ゴーストアーティファクトをほぼ完全に除去するために,U-Netアーキテクチャに基づくディープラーニングモデルを採用している。
複数のLFデータセットを用いて得られた実験結果から,提案手法の有効性が確認された。
特に,Sparse LFは高密度LFに比べて20%のデータしか持たないにもかかわらず,0.9以上の構造類似度指数に再焦点を合わせている。
関連論文リスト
- LFIC-DRASC: Deep Light Field Image Compression Using Disentangled Representation and Asymmetrical Strip Convolution [51.909036244222904]
ディスタングル表現と非対称ストリップ畳み込みを用いたエンドツーエンドのディープLF画像圧縮法を提案する。
実験の結果,提案したLFIC-DRASCは平均20.5%のビットレート削減を達成した。
論文 参考訳(メタデータ) (2024-09-18T05:33:42Z) - Diffusion-based Light Field Synthesis [50.24624071354433]
LFdiffは、LF合成に適した拡散ベースの生成フレームワークである。
本稿では,遠絡型雑音推定ネットワークDistgUnetを提案する。
広範囲な実験により、LFdiffは視覚的に快く、不均一に制御可能な光電場を合成する際に優れていることが示されている。
論文 参考訳(メタデータ) (2024-02-01T13:13:16Z) - View Adaptive Light Field Deblurring Networks with Depth Perception [21.55572150383203]
カメラの揺らぎや物体の動きといった様々な理由でぼやけた画像が引き起こされるため、光電界偏向(LF)は難しい問題である。
我々は、LF構造をより良く維持するために、角位置埋め込みを導入し、モデルがビュー情報を正しく復元できるようにする。
論文 参考訳(メタデータ) (2023-03-13T05:08:25Z) - I See-Through You: A Framework for Removing Foreground Occlusion in Both
Sparse and Dense Light Field Images [25.21481624956202]
光フィールド(LF)カメラは、シーンからリッチな情報をキャプチャする。その情報を用いて、LF非閉塞(LF-DeOcc)タスクは、閉塞のないセンタービューイメージを再構成することを目的としている。
本稿では,(1)LF特徴抽出,(2)隠蔽領域の定義,(3)無塗布閉塞領域の3つの役割からなるフレームワークISTYを提案する。
実験において、定性的および定量的な結果から、提案手法はスパースおよび密度の高いLFデータセットにおいて最先端のLF-DeOcc法より優れていることが示された。
論文 参考訳(メタデータ) (2023-01-16T12:25:42Z) - Learning Single Image Defocus Deblurring with Misaligned Training Pairs [80.13320797431487]
単一画像デフォーカスデブロリングのための連成デブロアリングおよびリブロアリング学習フレームワークを提案する。
我々のフレームワークは、定量的メトリクスと視覚的品質の両方の観点から、デフォーカスデブロワーリングネットワークを向上するために適用することができる。
論文 参考訳(メタデータ) (2022-11-26T07:36:33Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - Deep Anti-aliasing of Whole Focal Stack Using its Slice Spectrum [7.746179634773142]
本研究の目的は,スパース3次元光場から発生する全焦点スタックのエイリアス効果を除去することである。
まず,焦点スタックスライスに埋め込まれた構造特性とその周波数領域表現について検討する。
我々はまた、FSSのエネルギー分布が常に異なる角度サンプリングレートの下で同じ三角形領域内に位置することを観察する。
論文 参考訳(メタデータ) (2021-01-23T05:14:49Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。