論文の概要: FusionDepth: Complement Self-Supervised Monocular Depth Estimation with
Cost Volume
- arxiv url: http://arxiv.org/abs/2305.06036v1
- Date: Wed, 10 May 2023 10:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 13:40:13.380980
- Title: FusionDepth: Complement Self-Supervised Monocular Depth Estimation with
Cost Volume
- Title(参考訳): FusionDepth: コストボリュームによる補足型自己監督単分子深さ推定
- Authors: Zhuofei Huang, Jianlin Liu, Shang Xu, Ying Chen, Yong Liu
- Abstract要約: 複数フレームの逐次制約により単眼深度を連続的に改善できる多眼深度推定フレームワークを提案する。
また,本手法は,単分子推定と多視点コストボリュームを組み合わせる際の解釈可能性も向上する。
- 参考スコア(独自算出の注目度): 9.912304015239313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view stereo depth estimation based on cost volume usually works better
than self-supervised monocular depth estimation except for moving objects and
low-textured surfaces. So in this paper, we propose a multi-frame depth
estimation framework which monocular depth can be refined continuously by
multi-frame sequential constraints, leveraging a Bayesian fusion layer within
several iterations. Both monocular and multi-view networks can be trained with
no depth supervision. Our method also enhances the interpretability when
combining monocular estimation with multi-view cost volume. Detailed
experiments show that our method surpasses state-of-the-art unsupervised
methods utilizing single or multiple frames at test time on KITTI benchmark.
- Abstract(参考訳): コストボリュームに基づく多視点ステレオ深度推定は、移動物体や低テクスチャ面を除いて、自監督単分子深度推定よりもうまく機能する。
そこで本研究では,複数回の反復でベイズ融合層を利用して,単分子深度を連続的に改善できる多フレーム深度推定フレームワークを提案する。
モノクラーネットワークとマルチビューネットワークは、深度監視なしでトレーニングすることができる。
また,単眼推定とマルチビューコストボリュームを組み合わせた場合の解釈性も向上する。
詳細な実験により,本手法はKITTIベンチマークにおいて,単フレームまたは複数フレームを用いた最先端の教師なし手法を超えていることが示された。
関連論文リスト
- Exploring the Mutual Influence between Self-Supervised Single-Frame and
Multi-Frame Depth Estimation [10.872396009088595]
単フレームおよび多フレーム深度推定のための新しい自己教師型トレーニングフレームワークを提案する。
まず,複数フレームモデルのトレーニングを行うために,一フレームの深度でガイドされる画素単位の適応型深度サンプリングモジュールを導入する。
次に、最小再投射に基づく蒸留損失を利用して、知識を多フレーム深度ネットワークから単一フレームネットワークに転送する。
論文 参考訳(メタデータ) (2023-04-25T09:39:30Z) - Learning to Fuse Monocular and Multi-view Cues for Multi-frame Depth
Estimation in Dynamic Scenes [51.20150148066458]
一般化されたマスクを必要とせず,ボリュームとして符号化された多視点と単眼のキューを融合させる新しい手法を提案する。
実世界のデータセットを用いた実験は,提案手法の有効性と性能を実証する。
論文 参考訳(メタデータ) (2023-04-18T13:55:24Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Multi-View Depth Estimation by Fusing Single-View Depth Probability with
Multi-View Geometry [25.003116148843525]
多視点幾何を用いて一視点深度確率を融合するフレームワークであるMaGNetを提案する。
MaGNet は ScanNet, 7-Scenes, KITTI で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-12-15T14:56:53Z) - Scale-aware direct monocular odometry [4.111899441919165]
本稿では,深部ニューラルネットワークからの深度予測に基づく直接単分子オードメトリーの枠組みを提案する。
提案手法は,従来の単分子SLAMよりも5倍から9倍精度が高く,ステレオシステムに近い精度である。
論文 参考訳(メタデータ) (2021-09-21T10:30:15Z) - The Temporal Opportunist: Self-Supervised Multi-Frame Monocular Depth [28.06671063873351]
ManyDepth は密度深度推定への適応的なアプローチである。
信頼性が低いと判断された場合、ネットワークがコストを無視するように促す新しい一貫性損失を示す。
論文 参考訳(メタデータ) (2021-04-29T17:53:42Z) - FIS-Nets: Full-image Supervised Networks for Monocular Depth Estimation [14.454378082294852]
画像の整合性を利用する教師なしのフレームワークと、深い深度補完を行う教師なしのフレームワークを組み合わせた半教師付きアーキテクチャを提案する。
評価において,提案手法は深度推定における他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-19T06:04:26Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。