論文の概要: Learning based Deep Disentangling Light Field Reconstruction and
Disparity Estimation Application
- arxiv url: http://arxiv.org/abs/2311.08129v1
- Date: Tue, 14 Nov 2023 12:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 14:15:24.769534
- Title: Learning based Deep Disentangling Light Field Reconstruction and
Disparity Estimation Application
- Title(参考訳): 深部遠距離光場再構成に基づく学習と距離推定への応用
- Authors: Langqing Shi, Ping Zhou
- Abstract要約: 本稿では,光電界拡散機構の原理を継承し,高度なネットワーク構造を付加するDeep Disentangling Mechanismを提案する。
本研究では,DDASR(Deep Disentangling Mechanism)に基づく光電場再構成ネットワークを設計し,実験においてSOTAの性能を実現する。
- 参考スコア(独自算出の注目度): 1.5603081929496316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Light field cameras have a wide range of uses due to their ability to
simultaneously record light intensity and direction. The angular resolution of
light fields is important for downstream tasks such as depth estimation, yet is
often difficult to improve due to hardware limitations. Conventional methods
tend to perform poorly against the challenge of large disparity in sparse light
fields, while general CNNs have difficulty extracting spatial and angular
features coupled together in 4D light fields. The light field disentangling
mechanism transforms the 4D light field into 2D image format, which is more
favorable for CNN for feature extraction. In this paper, we propose a Deep
Disentangling Mechanism, which inherits the principle of the light field
disentangling mechanism and further develops the design of the feature
extractor and adds advanced network structure. We design a light-field
reconstruction network (i.e., DDASR) on the basis of the Deep Disentangling
Mechanism, and achieve SOTA performance in the experiments. In addition, we
design a Block Traversal Angular Super-Resolution Strategy for the practical
application of depth estimation enhancement where the input views is often
higher than 2x2 in the experiments resulting in a high memory usage, which can
reduce the memory usage while having a better reconstruction performance.
- Abstract(参考訳): 光フィールドカメラは、光強度と方向を同時に記録できるため、幅広い用途がある。
光の角度分解能は、深度推定などの下流タスクでは重要であるが、ハードウェアの制限により改善が難しいことが多い。
一般のcnnは4次元の光場に結合した空間的および角的特徴の抽出が困難であるのに対し、従来の手法では、スパース光場における大きな異質性の挑戦に対してあまり効果がない傾向がある。
光電界分離機構は、4次元光電界を2次元画像形式に変換し、特徴抽出においてCNNに好適である。
本稿では,光電界拡散機構の原理を継承し,特徴抽出器の設計をさらに発展させ,高度なネットワーク構造を付加するDeep Disentangling Mechanismを提案する。
本研究では,DDASR(Deep Disentangling Mechanism)に基づく光電場再構成ネットワークを設計し,実験においてSOTAの性能を実現する。
さらに、入力ビューが2x2以上の場合、メモリ使用率が高く、再構成性能が向上し、メモリ使用量を低減できるような、深度推定の実用化のためのブロックトラバーサル角超解法を設計する。
関連論文リスト
- Depth Monocular Estimation with Attention-based Encoder-Decoder Network
from Single Image [7.753378095194288]
ビジョンベースのアプローチは最近多くの注目を集めており、これらの欠点を克服することができる。
本研究では,格子状アーチファクトやぼやけたエッジに悩まされている1つの単眼画像から深度マップを推定する。
我々の新しいアプローチは、最小限のオーバーヘッドで現在の画像の焦点を見つけることができ、奥行き特性の損失を避けることができる。
論文 参考訳(メタデータ) (2022-10-24T23:01:25Z) - Disentangling Light Fields for Super-Resolution and Disparity Estimation [67.50796924758221]
光フィールド(LF)カメラは光線の強度と方向の両方を記録し、3Dシーンを4DLF画像にエンコードする。
空間的・角的な情報は様々な相違で高度に絡み合っているため、畳み込みニューラルネットワーク(CNN)がLF画像を処理することは困難である。
本稿では,この結合した情報をLF画像処理のために切り離すための汎用メカニズムを提案する。
論文 参考訳(メタデータ) (2022-02-22T01:04:41Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z) - Deep Sparse Light Field Refocusing [35.796798137910066]
現在の方法は、この目的のために、角度ビューの高密度な場を必要とする。
本稿では,ニューラルネットワークを用いた狭角情報に基づく新しいディジタル再焦点方式を提案する。
論文 参考訳(メタデータ) (2020-09-05T18:34:55Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Spatial-Angular Attention Network for Light Field Reconstruction [64.27343801968226]
非局所的な光場における対応を知覚する空間角アテンションネットワークを提案する。
非局所的なアテンション機構により、光界の各画素に対するエピポーラ面の全ての位置からの応答を計算するために、空間角アテンションモジュールが導入された。
次に,低空間スケールでの非局所的注意を効果的に実装するためのマルチスケール再構成構造を提案する。
論文 参考訳(メタデータ) (2020-07-05T06:55:29Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。