論文の概要: Light Field Image Super-Resolution Using Deformable Convolution
- arxiv url: http://arxiv.org/abs/2007.03535v4
- Date: Wed, 25 Nov 2020 12:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 20:29:06.905668
- Title: Light Field Image Super-Resolution Using Deformable Convolution
- Title(参考訳): 変形性畳み込みを用いた光場画像超解像
- Authors: Yingqian Wang, Jungang Yang, Longguang Wang, Xinyi Ying, Tianhao Wu,
Wei An, Yulan Guo
- Abstract要約: LF画像SRの差分問題に対処する変形可能な畳み込みネットワーク(LF-DFnet)を提案する。
我々のLF-DFnetは、より忠実な詳細で高解像度の画像を生成し、最先端の復元精度を実現する。
- 参考スコア(独自算出の注目度): 46.03974092854241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Light field (LF) cameras can record scenes from multiple perspectives, and
thus introduce beneficial angular information for image super-resolution (SR).
However, it is challenging to incorporate angular information due to
disparities among LF images. In this paper, we propose a deformable convolution
network (i.e., LF-DFnet) to handle the disparity problem for LF image SR.
Specifically, we design an angular deformable alignment module (ADAM) for
feature-level alignment. Based on ADAM, we further propose a
collect-and-distribute approach to perform bidirectional alignment between the
center-view feature and each side-view feature. Using our approach, angular
information can be well incorporated and encoded into features of each view,
which benefits the SR reconstruction of all LF images. Moreover, we develop a
baseline-adjustable LF dataset to evaluate SR performance under different
disparity variations. Experiments on both public and our self-developed
datasets have demonstrated the superiority of our method. Our LF-DFnet can
generate high-resolution images with more faithful details and achieve
state-of-the-art reconstruction accuracy. Besides, our LF-DFnet is more robust
to disparity variations, which has not been well addressed in literature.
- Abstract(参考訳): 光場(LF)カメラは複数の視点からシーンを記録することができ、画像超解像(SR)に有益な角情報をもたらす。
しかし,lf画像間の差異から,角情報を取り込むことは困難である。
本稿では、LF画像SRの差分問題に対処する変形可能な畳み込みネットワーク(LF-DFnet)を提案する。
具体的には,特徴レベルアライメントのための角変形可能なアライメントモジュール (ADAM) を設計する。
さらに,ADAMに基づいて,中心視特徴と各側面視特徴との間の双方向のアライメントを行うための収集・分散手法を提案する。
本手法では,角情報を各ビューの特徴にうまく組み込んでエンコードすることで,すべてのLF画像のSR再構成に有効である。
さらに,sr性能を評価するためのベースライン調整可能なlfデータセットを開発した。
公開データと自己開発データの両方を用いた実験により,本手法の優位性を実証した。
lf-dfnetはより忠実な精細な高解像度画像を生成し、最先端の再構成精度を実現する。
さらに, LF-DFnetは, 文献的にはあまり扱われていない異質な変動に対して, より堅牢である。
関連論文リスト
- Diffusion-based Light Field Synthesis [50.24624071354433]
LFdiffは、LF合成に適した拡散ベースの生成フレームワークである。
本稿では,遠絡型雑音推定ネットワークDistgUnetを提案する。
広範囲な実験により、LFdiffは視覚的に快く、不均一に制御可能な光電場を合成する際に優れていることが示されている。
論文 参考訳(メタデータ) (2024-02-01T13:13:16Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Physics-Informed Ensemble Representation for Light-Field Image
Super-Resolution [12.156009287223382]
我々は、光場(LF)撮像プロセスの座標変換を分析し、LF画像の幾何学的関係を明らかにする。
我々は,仮想スリット画像(VSI)の新たなLF部分空間を導入し,サブアパーチャ画像に補完するサブピクセル情報を提供する。
アンサンプされたLFデータから画像構造を超解き出すために,EPIXformer という幾何認識デコーダを提案する。
論文 参考訳(メタデータ) (2023-05-31T16:27:00Z) - Learning Non-Local Spatial-Angular Correlation for Light Field Image
Super-Resolution [36.69391399634076]
光場(LF)画像超解像(SR)には空間-角相関の爆発が不可欠である
LF画像SRの非局所的空間角相関を学習するための簡易かつ効果的な手法を提案する。
提案手法は,全角視からの情報を完全に取り入れつつ,極上線に沿った大域的受容場を達成できる。
論文 参考訳(メタデータ) (2023-02-16T03:40:40Z) - Real-World Light Field Image Super-Resolution via Degradation Modulation [59.68036846233918]
本稿では,実世界のLF画像 SR の簡易かつ効果的な手法を提案する。
実際のLF画像の劣化過程を定式化するために,実用的なLF劣化モデルを開発した。
畳み込みニューラルネットワークは、SRプロセスの前に分解を組み込むように設計されている。
論文 参考訳(メタデータ) (2022-06-13T14:44:46Z) - Light Field Image Super-Resolution with Transformers [11.104338786168324]
CNNに基づく手法は、LF画像SRにおいて顕著な性能を達成した。
LF画像SRのための簡易だが効果的なトランスフォーマー方式を提案する。
本手法は,モデルサイズが小さく,計算コストが低く,優れたSR性能を実現する。
論文 参考訳(メタデータ) (2021-08-17T12:58:11Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。