論文の概要: Depth estimation from 4D light field videos
- arxiv url: http://arxiv.org/abs/2012.03021v2
- Date: Tue, 8 Dec 2020 08:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:09:44.781940
- Title: Depth estimation from 4D light field videos
- Title(参考訳): 4次元光フィールドビデオからの深度推定
- Authors: Takahiro Kinoshita and Satoshi Ono
- Abstract要約: 本稿では,4次元LFビデオからの深度推定のためのエンドツーエンドニューラルネットワークアーキテクチャを提案する。
その結果, 時間情報が雑音域における深度推定精度の向上に寄与することが示唆された。
- 参考スコア(独自算出の注目度): 1.2944868613449219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth (disparity) estimation from 4D Light Field (LF) images has been a
research topic for the last couple of years. Most studies have focused on depth
estimation from static 4D LF images while not considering temporal information,
i.e., LF videos. This paper proposes an end-to-end neural network architecture
for depth estimation from 4D LF videos. This study also constructs a
medium-scale synthetic 4D LF video dataset that can be used for training deep
learning-based methods. Experimental results using synthetic and real-world 4D
LF videos show that temporal information contributes to the improvement of
depth estimation accuracy in noisy regions. Dataset and code is available at:
https://mediaeng-lfv.github.io/LFV_Disparity_Estimation
- Abstract(参考訳): 4D光場(LF)画像からの深度(差分)の推定は、ここ数年研究課題となっている。
ほとんどの研究は、時間的情報、すなわちLFビデオを考慮していない静的な4次元LF画像からの深さ推定に焦点を当てている。
本稿では,4次元LFビデオからの深度推定のためのエンドツーエンドニューラルネットワークアーキテクチャを提案する。
本研究は,深層学習に基づく手法の訓練に使用できる中規模の4次元LFビデオデータセットを構築した。
合成および実世界の4D LFビデオによる実験結果から,時空間情報は雑音域における深度推定精度の向上に寄与することが示された。
Dataset と code は https://mediaeng-lfv.github.io/LFV_Disparity_Estimation で利用可能である。
関連論文リスト
- Align3R: Aligned Monocular Depth Estimation for Dynamic Videos [50.28715151619659]
動的ビデオの時間的一貫した深度マップを推定するために,Align3Rと呼ばれる新しいビデオ深度推定法を提案する。
我々のキーとなる考え方は、最近のDUSt3Rモデルを用いて、異なる時間ステップの単分子深度マップを整列させることである。
実験により、Align3Rは一貫したビデオ深度を推定し、カメラはベースライン法よりも優れた性能を持つ単眼ビデオのポーズを示す。
論文 参考訳(メタデータ) (2024-12-04T07:09:59Z) - Video Depth without Video Models [34.11454612504574]
ビデオ深度推定は、各フレームに濃密な深度を推定することにより、単眼のビデオクリップを3Dに引き上げる。
単一画像潜在拡散モデル(LDM)を最先端のビデオ深度推定器にする方法を示す。
このモデルはRollingDepthと呼ばれ、(i)シングルイメージのLCMから派生したマルチフレーム深度推定器と、非常に短いビデオスニペットを深度スニペットにマッピングする。
論文 参考訳(メタデータ) (2024-11-28T14:50:14Z) - Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Iterative Occlusion-Aware Light Field Depth Estimation using 4D
Geometrical Cues [0.0]
本稿では,光深度推定のための4次元幾何学的手がかりを明確に理解し,活用することに焦点を当てる。
4次元モデルでは、4次元空間における鍵2次元平面の交点の向きを決定し、解析することで深度/分散度推定を行う。
実験の結果,提案手法は,学習に基づく手法と非学習に基づく手法の両方に優れていた。
論文 参考訳(メタデータ) (2024-03-04T13:47:49Z) - Relit-NeuLF: Efficient Relighting and Novel View Synthesis via Neural 4D
Light Field [69.90548694719683]
本稿ではRelit-NeuLFと呼ばれる分析合成手法を提案する。
まず、4次元座標系で各光線をパラメータ化し、効率的な学習と推論を可能にする。
総合的な実験により,提案手法は合成データと実世界の顔データの両方において効率的かつ効果的であることが実証された。
論文 参考訳(メタデータ) (2023-10-23T07:29:51Z) - NVDS+: Towards Efficient and Versatile Neural Stabilizer for Video Depth Estimation [58.21817572577012]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
プラグ・アンド・プレイ方式で様々な単一画像モデルから推定される不整合深さを安定化するNVDS+を導入する。
このデータセットには、200万フレーム以上の14,203本のビデオが含まれている。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - Probabilistic-based Feature Embedding of 4-D Light Fields for
Compressive Imaging and Denoising [62.347491141163225]
4次元光電場(LF)は、効率的で効果的な機能埋め込みを実現する上で大きな課題となる。
様々な低次元畳み込みパターンを組み立てることで特徴埋め込みアーキテクチャを学習する確率論的特徴埋め込み(PFE)を提案する。
実世界および合成4次元LF画像において,本手法の有意な優位性を実証した。
論文 参考訳(メタデータ) (2023-06-15T03:46:40Z) - Depth Estimation maps of lidar and stereo images [12.684545950979187]
本稿では,ライダーデータとステレオ画像に基づく深度推定の評価と性能に着目した。
また,深度推定性能の最適化について詳述する。
論文 参考訳(メタデータ) (2022-12-22T14:32:55Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。