論文の概要: View Adaptive Light Field Deblurring Networks with Depth Perception
- arxiv url: http://arxiv.org/abs/2303.06860v1
- Date: Mon, 13 Mar 2023 05:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:22:56.965060
- Title: View Adaptive Light Field Deblurring Networks with Depth Perception
- Title(参考訳): 深度知覚を考慮した適応型光場劣化ネットワーク
- Authors: Zeqi Shen, Shuo Zhang, Zhuhao Zhang, Qihua Chen, Xueyao Dong, Youfang
Lin
- Abstract要約: カメラの揺らぎや物体の動きといった様々な理由でぼやけた画像が引き起こされるため、光電界偏向(LF)は難しい問題である。
我々は、LF構造をより良く維持するために、角位置埋め込みを導入し、モデルがビュー情報を正しく復元できるようにする。
- 参考スコア(独自算出の注目度): 21.55572150383203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Light Field (LF) deblurring task is a challenging problem as the blur
images are caused by different reasons like the camera shake and the object
motion. The single image deblurring method is a possible way to solve this
problem. However, since it deals with each view independently and cannot
effectively utilize and maintain the LF structure, the restoration effect is
usually not ideal. Besides, the LF blur is more complex because the degree is
affected by the views and depth. Therefore, we carefully designed a novel LF
deblurring network based on the LF blur characteristics. On one hand, since the
blur degree varies a lot in different views, we design a novel view adaptive
spatial convolution to deblur blurred LFs, which calculates the exclusive
convolution kernel for each view. On the other hand, because the blur degree
also varies with the depth of the object, a depth perception view attention is
designed to deblur different depth areas by selectively integrating information
from different views. Besides, we introduce an angular position embedding to
maintain the LF structure better, which ensures the model correctly restores
the view information. Quantitative and qualitative experimental results on
synthetic and real images show that the deblurring effect of our method is
better than other state-of-the-art methods.
- Abstract(参考訳): カメラの揺らぎや物体の動きといった様々な理由でぼやけた画像が引き起こされるため、光電界偏向(LF)タスクは難しい問題である。
この問題を解決する方法として, 単一画像デブロアリング法が考えられる。
しかし、各ビューを独立して扱うため、lf構造を効果的に利用・維持できないため、通常、復元効果は理想的ではない。
さらに、LFのぼかしはビューや深さの影響を受けやすいため、より複雑である。
そこで我々は,LFブラー特性に基づく新しいLFデブロアリングネットワークを慎重に設計した。
一方,ぼやけた程度は異なる視点で大きく異なるため,ぼやけたlfをデブラーするために,新しいビュー適応型空間畳み込みをデザインし,各ビューに対する排他的畳み込み核を計算する。
一方、ぼかし度も被写体の深度とともに変化するため、異なる視界からの情報を選択的に統合して、異なる深度領域を損なうように、深度知覚ビューアテンションを設計する。
さらに,lf構造を良好に維持するために角位置埋め込みを導入し,モデルがビュー情報を正しく復元できるようにする。
合成画像と実画像の定量的および定性的な実験結果から,本手法の劣化効果は他の最先端手法よりも優れていることが示された。
関連論文リスト
- Diffusion-based Light Field Synthesis [50.24624071354433]
LFdiffは、LF合成に適した拡散ベースの生成フレームワークである。
本稿では,遠絡型雑音推定ネットワークDistgUnetを提案する。
広範囲な実験により、LFdiffは視覚的に快く、不均一に制御可能な光電場を合成する際に優れていることが示されている。
論文 参考訳(メタデータ) (2024-02-01T13:13:16Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Disentangling Light Fields for Super-Resolution and Disparity Estimation [67.50796924758221]
光フィールド(LF)カメラは光線の強度と方向の両方を記録し、3Dシーンを4DLF画像にエンコードする。
空間的・角的な情報は様々な相違で高度に絡み合っているため、畳み込みニューラルネットワーク(CNN)がLF画像を処理することは困難である。
本稿では,この結合した情報をLF画像処理のために切り離すための汎用メカニズムを提案する。
論文 参考訳(メタデータ) (2022-02-22T01:04:41Z) - Revisiting Light Field Rendering with Deep Anti-Aliasing Neural Network [51.90655635745856]
本稿では,従来のLFレンダリングフレームワークを再検討し,高度なディープラーニング技術と組み合わせることで両課題に対処する。
まず,大きな格差と非ランバート的課題の背後にある本質的な問題はエイリアシング問題であることを示す。
画像領域でアンチエイリアス処理を行うための代替フレームワークを導入し、エイリアス処理における同等の有効性を解析的に示す。
論文 参考訳(メタデータ) (2021-04-14T12:03:25Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - Light Field Image Super-Resolution Using Deformable Convolution [46.03974092854241]
LF画像SRの差分問題に対処する変形可能な畳み込みネットワーク(LF-DFnet)を提案する。
我々のLF-DFnetは、より忠実な詳細で高解像度の画像を生成し、最先端の復元精度を実現する。
論文 参考訳(メタデータ) (2020-07-07T15:07:33Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。