論文の概要: I See-Through You: A Framework for Removing Foreground Occlusion in Both
Sparse and Dense Light Field Images
- arxiv url: http://arxiv.org/abs/2301.06392v1
- Date: Mon, 16 Jan 2023 12:25:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 15:58:13.006285
- Title: I See-Through You: A Framework for Removing Foreground Occlusion in Both
Sparse and Dense Light Field Images
- Title(参考訳): I See-Through You:Sparse and Dense Light Field Imagesにおける前景閉塞除去のためのフレームワーク
- Authors: Jiwan Hur, Jae Young Lee, Jaehyun Choi, and Junmo Kim
- Abstract要約: 光フィールド(LF)カメラは、シーンからリッチな情報をキャプチャする。その情報を用いて、LF非閉塞(LF-DeOcc)タスクは、閉塞のないセンタービューイメージを再構成することを目的としている。
本稿では,(1)LF特徴抽出,(2)隠蔽領域の定義,(3)無塗布閉塞領域の3つの役割からなるフレームワークISTYを提案する。
実験において、定性的および定量的な結果から、提案手法はスパースおよび密度の高いLFデータセットにおいて最先端のLF-DeOcc法より優れていることが示された。
- 参考スコア(独自算出の注目度): 25.21481624956202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field (LF) camera captures rich information from a scene. Using the
information, the LF de-occlusion (LF-DeOcc) task aims to reconstruct the
occlusion-free center view image. Existing LF-DeOcc studies mainly focus on the
sparsely sampled (sparse) LF images where most of the occluded regions are
visible in other views due to the large disparity. In this paper, we expand
LF-DeOcc in more challenging datasets, densely sampled (dense) LF images, which
are taken by a micro-lens-based portable LF camera. Due to the small disparity
ranges of dense LF images, most of the background regions are invisible in any
view. To apply LF-DeOcc in both LF datasets, we propose a framework, ISTY,
which is defined and divided into three roles: (1) extract LF features, (2)
define the occlusion, and (3) inpaint occluded regions. By dividing the
framework into three specialized components according to the roles, the
development and analysis can be easier. Furthermore, an explainable
intermediate representation, an occlusion mask, can be obtained in the proposed
framework. The occlusion mask is useful for comprehensive analysis of the model
and other applications by manipulating the mask. In experiments, qualitative
and quantitative results show that the proposed framework outperforms
state-of-the-art LF-DeOcc methods in both sparse and dense LF datasets.
- Abstract(参考訳): 光フィールド(LF)カメラはシーンから豊富な情報をキャプチャする。
この情報を用いてlf deocclusion(lf-deocc)タスクは、閉塞のないセンタービューイメージを再構築することを目的としている。
既存の lf-deocc の研究は、主に、大きな差のため、多くの遮蔽領域が他の視点で見ることができる、スパースにサンプリングされた (スパース) lf 画像に焦点を当てている。
本稿では,マイクロレンズ型ポータブルLFカメラで撮影された高密度(高密度)LF画像を用いて,より困難なデータセットにLF-DeOccを拡張する。
密度の高いlf画像の差が小さいため、背景領域のほとんどがどの視点でも見えない。
両方のLFデータセットにLF-DeOccを適用するために,(1)LF特徴の抽出,(2)オクルージョンの定義,(3)非塗装領域の3つの役割からなるフレームワーク,ISTYを提案する。
フレームワークを役割に応じて3つの特別なコンポーネントに分割することで、開発と分析が容易になる。
さらに,提案手法では,説明可能な中間表現である咬合マスクを得ることができる。
咬合マスクは、マスクを操作することによってモデルやその他の応用の包括的な分析に有用である。
実験において、定性的および定量的な結果から、提案手法はスパースおよび密度の高いLFデータセットにおいて最先端のLF-DeOcc法より優れていることが示された。
関連論文リスト
- LFIC-DRASC: Deep Light Field Image Compression Using Disentangled Representation and Asymmetrical Strip Convolution [51.909036244222904]
ディスタングル表現と非対称ストリップ畳み込みを用いたエンドツーエンドのディープLF画像圧縮法を提案する。
実験の結果,提案したLFIC-DRASCは平均20.5%のビットレート削減を達成した。
論文 参考訳(メタデータ) (2024-09-18T05:33:42Z) - Diffusion-based Light Field Synthesis [50.24624071354433]
LFdiffは、LF合成に適した拡散ベースの生成フレームワークである。
本稿では,遠絡型雑音推定ネットワークDistgUnetを提案する。
広範囲な実験により、LFdiffは視覚的に快く、不均一に制御可能な光電場を合成する際に優れていることが示されている。
論文 参考訳(メタデータ) (2024-02-01T13:13:16Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Disentangling Light Fields for Super-Resolution and Disparity Estimation [67.50796924758221]
光フィールド(LF)カメラは光線の強度と方向の両方を記録し、3Dシーンを4DLF画像にエンコードする。
空間的・角的な情報は様々な相違で高度に絡み合っているため、畳み込みニューラルネットワーク(CNN)がLF画像を処理することは困難である。
本稿では,この結合した情報をLF画像処理のために切り離すための汎用メカニズムを提案する。
論文 参考訳(メタデータ) (2022-02-22T01:04:41Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z) - Harnessing Multi-View Perspective of Light Fields for Low-Light Imaging [26.264066009506678]
本稿では,L3F修復のためのディープニューラルネットワークを提案する。
提案したL3Fnetは、各LFビューの必要な視覚的拡張を行うだけでなく、ビュー間のエピポーラ幾何学も保持する。
また,L3Fnetは1フレーム画像の低照度化にも利用できることを示す。
論文 参考訳(メタデータ) (2020-03-05T05:32:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。