論文の概要: Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization
- arxiv url: http://arxiv.org/abs/2004.02215v1
- Date: Sun, 5 Apr 2020 14:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 13:10:47.867957
- Title: Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization
- Title(参考訳): 深層コンビネート幾何埋め込みと構造整合性規則化による光場空間超解像
- Authors: Jing Jin and Junhui Hou and Jie Chen and Sam Kwong
- Abstract要約: ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
- 参考スコア(独自算出の注目度): 99.96632216070718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field (LF) images acquired by hand-held devices usually suffer from low
spatial resolution as the limited sampling resources have to be shared with the
angular dimension. LF spatial super-resolution (SR) thus becomes an
indispensable part of the LF camera processing pipeline. The
high-dimensionality characteristic and complex geometrical structure of LF
images make the problem more challenging than traditional single-image SR. The
performance of existing methods is still limited as they fail to thoroughly
explore the coherence among LF views and are insufficient in accurately
preserving the parallax structure of the scene. In this paper, we propose a
novel learning-based LF spatial SR framework, in which each view of an LF image
is first individually super-resolved by exploring the complementary information
among views with combinatorial geometry embedding. For accurate preservation of
the parallax structure among the reconstructed views, a regularization network
trained over a structure-aware loss function is subsequently appended to
enforce correct parallax relationships over the intermediate estimation. Our
proposed approach is evaluated over datasets with a large number of testing
images including both synthetic and real-world scenes. Experimental results
demonstrate the advantage of our approach over state-of-the-art methods, i.e.,
our method not only improves the average PSNR by more than 1.0 dB but also
preserves more accurate parallax details, at a lower computational cost.
- Abstract(参考訳): ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、限られたサンプリングリソースを角次元と共有する必要があるため、空間分解能の低下に悩まされる。
したがって、LF空間超解像(SR)はLFカメラ処理パイプラインの必須部分となる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも難しい。
既存の手法の性能は、lfビュー間のコヒーレンスを徹底的に探索できず、シーンのパララックス構造を正確に保存できないため、まだ限られている。
本稿では,合成幾何埋め込みによる視点間の相補的情報を探索し,lf画像の各視点を個別に超解く学習ベースlf空間srフレームワークを提案する。
再構成されたビュー間のパララックス構造を正確に保存するために、構造認識損失関数上でトレーニングされた正規化ネットワークを付加し、中間推定に対する正確なパララックス関係を強制する。
提案手法は,合成シーンと実世界のシーンの両方を含む多数のテスト画像を含むデータセット上で評価される。
実験の結果,提案手法は平均PSNRを1.0dB以上改善するだけでなく,より正確な視差の詳細をより少ない計算コストで保存する。
関連論文リスト
- Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Physics-Informed Ensemble Representation for Light-Field Image
Super-Resolution [12.156009287223382]
我々は、光場(LF)撮像プロセスの座標変換を分析し、LF画像の幾何学的関係を明らかにする。
我々は,仮想スリット画像(VSI)の新たなLF部分空間を導入し,サブアパーチャ画像に補完するサブピクセル情報を提供する。
アンサンプされたLFデータから画像構造を超解き出すために,EPIXformer という幾何認識デコーダを提案する。
論文 参考訳(メタデータ) (2023-05-31T16:27:00Z) - Scale-Consistent Fusion: from Heterogeneous Local Sampling to Global
Immersive Rendering [9.893045525907219]
画像に基づく幾何モデリングと、スパースに基づく新しいビュー合成は、バーチャルリアリティや没入型テレプレゼンスのような新興マルチメディアアプリケーションにとって難しいが重要な課題である。
LFカメラの普及により、LF画像(LFI)の撮影は通常の写真撮影と同じくらい便利になり、幾何情報も確実に推測できる。
本稿では,大域的幾何融合のための異なるキャプチャ間の分散確率ボリューム(DPV)を頑健に整合させる,新しいスケール一貫性ボリューム再スケーリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-17T14:27:08Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - A Parallel Down-Up Fusion Network for Salient Object Detection in
Optical Remote Sensing Images [82.87122287748791]
光リモートセンシング画像(RSI)における有意な物体検出のための新しい並列ダウンアップフュージョンネットワーク(PDF-Net)を提案する。
In-pathの低レベル・高レベルな特徴とクロスパスの多解像度な特徴をフル活用して、多様なスケールのサルエントオブジェクトを識別し、散らかった背景を抑える。
ORSSDデータセットの実験により、提案したネットワークは定性的かつ定量的に最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T05:27:57Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - High-Order Residual Network for Light Field Super-Resolution [39.93400777363467]
可視光カメラは通常、異なる視点から情報を取得するために、SAIの空間分解能を犠牲にする。
そこで本稿では,光場から階層的に幾何学的特徴を学習するための新しい高次残差ネットワークを提案する。
提案手法は,挑戦的領域においても高品質な再構成が可能であり,定量化と視覚的評価の両面から,最先端の単一画像やLF再構成よりも優れる。
論文 参考訳(メタデータ) (2020-03-29T18:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。