論文の概要: Du$^2$Net: Learning Depth Estimation from Dual-Cameras and Dual-Pixels
- arxiv url: http://arxiv.org/abs/2003.14299v1
- Date: Tue, 31 Mar 2020 15:39:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:34:02.272545
- Title: Du$^2$Net: Learning Depth Estimation from Dual-Cameras and Dual-Pixels
- Title(参考訳): Du$^2$Net:デュアルカメラとデュアルカメラによる深度推定学習
- Authors: Yinda Zhang, Neal Wadhwa, Sergio Orts-Escolano, Christian H\"ane, Sean
Fanello, and Rahul Garg
- Abstract要約: 本稿では,デュアルカメラのステレオとデュアルピクセルセンサのステレオを組み合わせた深度推定のためのニューラルネットワークに基づく新しいアプローチを提案する。
我々のネットワークは、2つの情報ソースを融合するために新しいアーキテクチャを使用し、純粋な双眼鏡ステレオマッチングの限界を克服することができる。
- 参考スコア(独自算出の注目度): 16.797169907541164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational stereo has reached a high level of accuracy, but degrades in
the presence of occlusions, repeated textures, and correspondence errors along
edges. We present a novel approach based on neural networks for depth
estimation that combines stereo from dual cameras with stereo from a dual-pixel
sensor, which is increasingly common on consumer cameras. Our network uses a
novel architecture to fuse these two sources of information and can overcome
the above-mentioned limitations of pure binocular stereo matching. Our method
provides a dense depth map with sharp edges, which is crucial for computational
photography applications like synthetic shallow-depth-of-field or 3D Photos.
Additionally, we avoid the inherent ambiguity due to the aperture problem in
stereo cameras by designing the stereo baseline to be orthogonal to the
dual-pixel baseline. We present experiments and comparisons with
state-of-the-art approaches to show that our method offers a substantial
improvement over previous works.
- Abstract(参考訳): 計算ステレオは高い精度に達したが、オクルージョン、繰り返しのテクスチャ、エッジに沿った対応エラーの存在で劣化する。
本稿では,デュアルカメラからのステレオとデュアルピクセルセンサからのステレオを組み合わせた深度推定のためのニューラルネットに基づく新しいアプローチを提案する。
我々のネットワークは、これらの2つの情報ソースを融合させる新しいアーキテクチャを使用し、上記の純粋な双眼ステレオマッチングの制限を克服することができる。
本手法は鋭いエッジを持つ濃密な深度マップを提供するため,合成浅層写真や3d写真などの計算写真アプリケーションにおいて重要である。
さらに,デュアルピクセルベースラインと直交するステレオベースラインを設計することにより,ステレオカメラの開口問題による固有の曖昧さを回避する。
本稿では,最新の手法との比較を行った結果,従来の手法よりも大幅に改善できることを示す。
関連論文リスト
- Stereo-Knowledge Distillation from dpMV to Dual Pixels for Light Field Video Reconstruction [12.519930982515802]
この研究は、暗黙的または明示的に、高精度な暗黒ステレオ知識を効率の良いデュアルピクセルの学生ネットワークに蒸留することで、忠実な再構築を可能にするという仮説を立てた。
暗黒知識蒸留仮説を検証するため,第1,第1,第2の2画素ビデオデータセットdpMVを収集した。
これらの手法は純粋に単分子解よりも優れており、特にデュアルピクセルからの忠実なガイダンスを用いて、前景と背景の分離に挑戦する。
論文 参考訳(メタデータ) (2024-05-20T06:34:47Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - MEStereo-Du2CNN: A Novel Dual Channel CNN for Learning Robust Depth
Estimates from Multi-exposure Stereo Images for HDR 3D Applications [0.22940141855172028]
マルチ露光ステレオ深度推定のための新しいディープアーキテクチャを開発した。
アーキテクチャの立体深度推定コンポーネントとして,モノ・ステレオ・トランスファー学習アプローチをデプロイする。
性能の面では、提案モデルは最先端のモノクラーおよびステレオ深度推定法を超越している。
論文 参考訳(メタデータ) (2022-06-21T13:23:22Z) - IB-MVS: An Iterative Algorithm for Deep Multi-View Stereo based on
Binary Decisions [0.0]
本稿では,マルチビューステレオのための新しいディープラーニング手法を提案する。
提案手法は,各画素における実現可能な深度値の連続空間を2値決定方式でトラバースすることにより,高分解能かつ高精度な深度マップを反復的に推定する。
提案手法をDTU, タンク, テンプル上の最先端のマルチビューステレオ手法と, 挑戦的なETH3Dベンチマークと比較し, 競争力のある結果を示した。
論文 参考訳(メタデータ) (2021-11-29T10:04:24Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - SMD-Nets: Stereo Mixture Density Networks [68.56947049719936]
SMD-Nets(Stereo Mixture Density Networks)は、幅広い2Dおよび3Dアーキテクチャに対応したシンプルで効果的な学習フレームワークです。
具体的には,バイモーダル混合密度を出力表現として活用し,不連続近傍の鋭く正確な不一致推定を可能にすることを示す。
我々は8Mpx解像度のステレオペアと現実世界のステレオデータセットからなる、新しい高解像度でリアルな合成ステレオデータセットに関する包括的な実験を行う。
論文 参考訳(メタデータ) (2021-04-08T16:15:46Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Increased-Range Unsupervised Monocular Depth Estimation [8.105699831214608]
そこで本研究では,小規模・広範囲のベースラインの利点を統合することを提案する。
3つの水平方向のビューを用いてネットワークをトレーニングすることにより、近距離と遠距離の両方で正確な深度予測が得られる。
我々の戦略は、単一の画像から複数のベースライン深さを推定できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:32Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。