論文の概要: Boosting Monocular Depth Estimation with Lightweight 3D Point Fusion
- arxiv url: http://arxiv.org/abs/2012.10296v1
- Date: Fri, 18 Dec 2020 15:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:10:54.930174
- Title: Boosting Monocular Depth Estimation with Lightweight 3D Point Fusion
- Title(参考訳): 軽量3次元点融合による単眼深度推定
- Authors: Lam Huynh, Phong Nguyen, Jiri Matas, Esa Rahtu, Janne Heikkila
- Abstract要約: 従来の多視点ステレオやSLAMを用いて単眼深度推定を行う際の問題に対処する。
我々は従来のパイプラインを用いて、単眼深度推定ネットワークに供給されるスパース3D点雲を生成し、その性能を向上させる。
モバイルデバイス上に内蔵されたSLAMシステムと統合することで,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 46.97673710849343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of fusing monocular depth estimation
with a conventional multi-view stereo or SLAM to exploit the best of both
worlds, that is, the accurate dense depth of the first one and lightweightness
of the second one. More specifically, we use a conventional pipeline to produce
a sparse 3D point cloud that is fed to a monocular depth estimation network to
enhance its performance. In this way, we can achieve accuracy similar to
multi-view stereo with a considerably smaller number of weights. We also show
that even as few as 32 points is sufficient to outperform the best monocular
depth estimation methods, and around 200 points to gain full advantage of the
additional information. Moreover, we demonstrate the efficacy of our approach
by integrating it with a SLAM system built-in on mobile devices.
- Abstract(参考訳): 本稿では,従来の多視点ステレオやslamを用いた単眼深度推定法を用いて,両世界の精巧さ,すなわち,第1の濃密な深さと第2の視点の軽量さを生かした。
より具体的には、単眼深度推定ネットワークに供給され、その性能を高めるために、従来のパイプラインを用いてスパース3Dポイントクラウドを生成する。
このように、重みがかなり少ないマルチビューステレオと同様の精度を実現することができる。
また,最善の単眼深度推定法を上回るためには,32点以下でも十分であり,追加情報を最大限に活用するには約200点であることを示した。
さらに,モバイルデバイス上に内蔵されたSLAMシステムと統合することで,本手法の有効性を示す。
関連論文リスト
- DepthSplat: Connecting Gaussian Splatting and Depth [90.06180236292866]
ガウススプラッティングと深さ推定を結合するDepthSplatを提案する。
まず,事前学習した単眼深度特徴を生かして,頑健な多眼深度モデルを提案する。
また,ガウス的スプラッティングは教師なし事前学習の目的として機能することを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:58Z) - MonoCD: Monocular 3D Object Detection with Complementary Depths [9.186673054867866]
深度推定は単分子3次元物体検出に不可欠だが挑戦的なサブタスクである。
2つの新しい設計で深度の相補性を高めることを提案する。
KITTIベンチマーク実験により, 余分なデータを導入することなく, 最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2024-04-04T03:30:49Z) - NDDepth: Normal-Distance Assisted Monocular Depth Estimation [22.37113584192617]
単眼深度推定のための新しい物理(幾何学)駆動深度学習フレームワークを提案する。
そこで我々は,各位置における深度を導出するために,画素レベル表面の正規化と平面-オリジン距離を出力する新しい正規距離ヘッドを提案する。
我々は,深度不確実性に応じて相補的に深度を洗練する効果的なコントラッシブ・イテレーティブ・リファインメント・モジュールを開発した。
論文 参考訳(メタデータ) (2023-09-19T13:05:57Z) - Probabilistic Volumetric Fusion for Dense Monocular SLAM [33.156523309257786]
本研究では,高密度単分子SLAMと高速不確実性伝搬を利用して3次元シーンを再構成する手法を提案する。
提案手法は, 極めてノイズの多い深度推定値に対して頑健でありながら, 密集度, 精度, リアルタイムにシーンを3次元再構成することができる。
その結果,本手法は単分子SLAMからの直接拡散深度よりも92%精度が向上し,最大90%の精度向上が得られた。
論文 参考訳(メタデータ) (2022-10-03T23:53:35Z) - Uncertainty Guided Depth Fusion for Spike Camera [49.41822923588663]
スパイクカメラのための単分子およびステレオ深度推定ネットワークの予測を融合させる新しい不確かさ誘導深度融合(UGDF)フレームワークを提案する。
我々のフレームワークは、ステレオスパイク深さ推定がより近い範囲でより良い結果をもたらすという事実に動機づけられている。
従来のカメラ深度推定よりもスパイク深度推定の利点を示すため、我々はCitySpike20Kというスパイク深度データセットに貢献する。
論文 参考訳(メタデータ) (2022-08-26T13:04:01Z) - Scale-aware direct monocular odometry [4.111899441919165]
本稿では,深部ニューラルネットワークからの深度予測に基づく直接単分子オードメトリーの枠組みを提案する。
提案手法は,従来の単分子SLAMよりも5倍から9倍精度が高く,ステレオシステムに近い精度である。
論文 参考訳(メタデータ) (2021-09-21T10:30:15Z) - Pseudo RGB-D for Self-Improving Monocular SLAM and Depth Prediction [72.30870535815258]
モノクロ深度予測のためのCNNは、周囲の環境の3Dマップを構築するための2つの大きく不連続なアプローチを表している。
本稿では,CNN予測深度を利用してRGB-D特徴量に基づくSLAMを行う,狭義の広義の自己改善フレームワークを提案する。
一方、より原理化された幾何学的SLAMの3次元シーン構造とカメラポーズは、新しい広義のベースライン損失により奥行きネットワークに注入される。
論文 参考訳(メタデータ) (2020-04-22T16:31:59Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。