論文の概要: Depth estimation from 4D light field videos
- arxiv url: http://arxiv.org/abs/2012.03021v2
- Date: Tue, 8 Dec 2020 08:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:09:44.781940
- Title: Depth estimation from 4D light field videos
- Title(参考訳): 4次元光フィールドビデオからの深度推定
- Authors: Takahiro Kinoshita and Satoshi Ono
- Abstract要約: 本稿では,4次元LFビデオからの深度推定のためのエンドツーエンドニューラルネットワークアーキテクチャを提案する。
その結果, 時間情報が雑音域における深度推定精度の向上に寄与することが示唆された。
- 参考スコア(独自算出の注目度): 1.2944868613449219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth (disparity) estimation from 4D Light Field (LF) images has been a
research topic for the last couple of years. Most studies have focused on depth
estimation from static 4D LF images while not considering temporal information,
i.e., LF videos. This paper proposes an end-to-end neural network architecture
for depth estimation from 4D LF videos. This study also constructs a
medium-scale synthetic 4D LF video dataset that can be used for training deep
learning-based methods. Experimental results using synthetic and real-world 4D
LF videos show that temporal information contributes to the improvement of
depth estimation accuracy in noisy regions. Dataset and code is available at:
https://mediaeng-lfv.github.io/LFV_Disparity_Estimation
- Abstract(参考訳): 4D光場(LF)画像からの深度(差分)の推定は、ここ数年研究課題となっている。
ほとんどの研究は、時間的情報、すなわちLFビデオを考慮していない静的な4次元LF画像からの深さ推定に焦点を当てている。
本稿では,4次元LFビデオからの深度推定のためのエンドツーエンドニューラルネットワークアーキテクチャを提案する。
本研究は,深層学習に基づく手法の訓練に使用できる中規模の4次元LFビデオデータセットを構築した。
合成および実世界の4D LFビデオによる実験結果から,時空間情報は雑音域における深度推定精度の向上に寄与することが示された。
Dataset と code は https://mediaeng-lfv.github.io/LFV_Disparity_Estimation で利用可能である。
関連論文リスト
- Iterative Occlusion-Aware Light Field Depth Estimation using 4D
Geometrical Cues [0.0]
本稿では,光深度推定のための4次元幾何学的手がかりを明確に理解し,活用することに焦点を当てる。
4次元モデルでは、4次元空間における鍵2次元平面の交点の向きを決定し、解析することで深度/分散度推定を行う。
実験の結果,提案手法は,学習に基づく手法と非学習に基づく手法の両方に優れていた。
論文 参考訳(メタデータ) (2024-03-04T13:47:49Z) - Relit-NeuLF: Efficient Relighting and Novel View Synthesis via Neural 4D
Light Field [69.90548694719683]
本稿ではRelit-NeuLFと呼ばれる分析合成手法を提案する。
まず、4次元座標系で各光線をパラメータ化し、効率的な学習と推論を可能にする。
総合的な実験により,提案手法は合成データと実世界の顔データの両方において効率的かつ効果的であることが実証された。
論文 参考訳(メタデータ) (2023-10-23T07:29:51Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - Neural Video Depth Stabilizer [74.04508918791637]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
いくつかの方法は、幾何学的制約と再射影制約を用いて、テスト時間中に単一画像深度モデルを微調整することで、時間的整合性を達成する。
本稿では,不整合深度推定を安定化し,余分な労力を伴わずに異なる単一画像深度モデルに適用可能なプラグアンドプレイフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - Probabilistic-based Feature Embedding of 4-D Light Fields for
Compressive Imaging and Denoising [62.347491141163225]
4次元光電場(LF)は、効率的で効果的な機能埋め込みを実現する上で大きな課題となる。
様々な低次元畳み込みパターンを組み立てることで特徴埋め込みアーキテクチャを学習する確率論的特徴埋め込み(PFE)を提案する。
実世界および合成4次元LF画像において,本手法の有意な優位性を実証した。
論文 参考訳(メタデータ) (2023-06-15T03:46:40Z) - Depth Estimation maps of lidar and stereo images [12.684545950979187]
本稿では,ライダーデータとステレオ画像に基づく深度推定の評価と性能に着目した。
また,深度推定性能の最適化について詳述する。
論文 参考訳(メタデータ) (2022-12-22T14:32:55Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Self-supervised monocular depth estimation from oblique UAV videos [8.876469413317341]
本論文では, 深層学習を用いて, 単一のUAV空中画像から深度を推定する。
連続時間フレームから情報を抽出する2次元CNNエンコーダと3次元CNNデコーダを備えた新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-19T14:53:28Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。