論文の概要: Fast and Accurate Optical Flow based Depth Map Estimation from Light
Fields
- arxiv url: http://arxiv.org/abs/2008.04673v1
- Date: Tue, 11 Aug 2020 12:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:44:07.819907
- Title: Fast and Accurate Optical Flow based Depth Map Estimation from Light
Fields
- Title(参考訳): 高速かつ高精度な光流れに基づく光場からの深度マップ推定
- Authors: Yang Chen, Martin Alain, Aljosa Smolic
- Abstract要約: 既存の光フロー推定法に基づく光場からの深度推定法を提案する。
異なる不均一写像が得られたと推定すると、非常に一貫したものであり、高速で単純な集合のステップで単一の不均一写像を作成できる。
等間隔写像推定は一貫性があるため、各等間隔写像から深度写像を作成し、3次元空間内の異なる深度写像を集約して1つの濃度深度写像を作成することもできる。
- 参考スコア(独自算出の注目度): 22.116100469958436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth map estimation is a crucial task in computer vision, and new approaches
have recently emerged taking advantage of light fields, as this new imaging
modality captures much more information about the angular direction of light
rays compared to common approaches based on stereoscopic images or multi-view.
In this paper, we propose a novel depth estimation method from light fields
based on existing optical flow estimation methods. The optical flow estimator
is applied on a sequence of images taken along an angular dimension of the
light field, which produces several disparity map estimates. Considering both
accuracy and efficiency, we choose the feature flow method as our optical flow
estimator. Thanks to its spatio-temporal edge-aware filtering properties, the
different disparity map estimates that we obtain are very consistent, which
allows a fast and simple aggregation step to create a single disparity map,
which can then converted into a depth map. Since the disparity map estimates
are consistent, we can also create a depth map from each disparity estimate,
and then aggregate the different depth maps in the 3D space to create a single
dense depth map.
- Abstract(参考訳): 深度マップ推定はコンピュータビジョンにおいて重要な課題であり、この新たな画像モダリティは、立体画像やマルチビューに基づく一般的なアプローチに比べて、光線の角方向に関する多くの情報を取得するため、近年、光場を利用した新しいアプローチが出現している。
本稿では,既存の光流推定法に基づく光場からの新たな深度推定法を提案する。
光流推定器は、光場の角次元に沿って撮影された一連の画像に適用され、いくつかの不均一マップ推定を生成する。
精度と効率の両面から,光学フロー推定器として特徴流法を選択する。
時空間的エッジアウェアフィルタリング特性のおかげで、我々が求めた異なるディパリティマップ推定は非常に一貫性があり、高速で単純なアグリゲーションステップで単一のディパリティマップを作成し、深度マップに変換することができる。
差点マップの推定値は一貫しているため、各差点推定値から深度マップを作成し、3d空間内の異なる深さマップを集約して、単一の密な深さマップを作成することもできる。
関連論文リスト
- Refinement of Monocular Depth Maps via Multi-View Differentiable Rendering [4.717325308876748]
本稿では,複数の画像から一貫した詳細な深度マップを生成するための新しい手法を提案する。
我々は、位相的に完全だが計量的に不正確な深度マップを生成する単眼深度推定の進歩を活用する。
提案手法は,高密度で詳細で高品質な深度マップを作成でき,また屋内シナリオの挑戦も可能であり,最先端の深度復元手法よりも優れている。
論文 参考訳(メタデータ) (2024-10-04T18:50:28Z) - All-day Depth Completion [20.98941382541901]
そこで本稿では,照明条件の異なる日夜の深度推定手法を提案する。
我々は、カメラ画像とともに、画像平面上に投影された追加の同期スパース点雲をスパース深度マップとして入力する。
SpaDeはプラグイン・アンド・プレイ方式で使用することができ、既存のメソッドでスパースディープを前処理するときに25%改善できる。
論文 参考訳(メタデータ) (2024-05-27T16:16:53Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - Understanding Depth Map Progressively: Adaptive Distance Interval
Separation for Monocular 3d Object Detection [38.96129204108353]
いくつかの単分子3D検出技術は、深度推定タスクからの補助深度マップに依存している。
本稿では,深度マップの新たな視点を取り入れたAdaptive Distance Interval Separation Network (ADISN) というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T13:32:53Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - Differentiable Diffusion for Dense Depth Estimation from Multi-view
Images [31.941861222005603]
深度マップへの拡散がRGB監督からの多視点再投射誤差を最小限に抑えるように、細かな点集合を最適化することにより、深度を推定する手法を提案する。
また,複雑なシーン再構成に必要な50k以上のポイントを同時に最適化できる効率的な最適化ルーチンを開発した。
論文 参考訳(メタデータ) (2021-06-16T16:17:34Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - View-consistent 4D Light Field Depth Estimation [37.04038603184669]
本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する手法を提案する。
提案手法は,EPIを用いて深度エッジを正確に定義し,その辺を中央の視野内で空間的に拡散させる。
論文 参考訳(メタデータ) (2020-09-09T01:47:34Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。