論文の概要: A technique to jointly estimate depth and depth uncertainty for unmanned
aerial vehicles
- arxiv url: http://arxiv.org/abs/2305.19780v1
- Date: Wed, 31 May 2023 12:13:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 16:51:35.132846
- Title: A technique to jointly estimate depth and depth uncertainty for unmanned
aerial vehicles
- Title(参考訳): 無人航空機の深さと深さの不確かさを共同推定する手法
- Authors: Micha\"el Fonder and Marc Van Droogenbroeck
- Abstract要約: M4Depthは無人航空機(UAV)向けに設計された最先端の深度推定手法である。
関節深度と不確実性の推定を行うため,M4Depthをどのように拡張できるかを示す。
- 参考スコア(独自算出の注目度): 11.725077632618879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When used by autonomous vehicles for trajectory planning or obstacle
avoidance, depth estimation methods need to be reliable. Therefore, estimating
the quality of the depth outputs is critical. In this paper, we show how
M4Depth, a state-of-the-art depth estimation method designed for unmanned
aerial vehicle (UAV) applications, can be enhanced to perform joint depth and
uncertainty estimation. For that, we present a solution to convert the
uncertainty estimates related to parallax generated by M4Depth into uncertainty
estimates related to depth, and show that it outperforms the standard
probabilistic approach. Our experiments on various public datasets demonstrate
that our method performs consistently, even in zero-shot transfer. Besides, our
method offers a compelling value when compared to existing multi-view depth
estimation methods as it performs similarly on a multi-view depth estimation
benchmark despite being 2.5 times faster and causal, as opposed to other
methods. The code of our method is publicly available at
https://github.com/michael-fonder/M4DepthU .
- Abstract(参考訳): 軌道計画や障害物回避のために自動運転車が使用する場合、深さ推定手法は信頼性が必要となる。
したがって、深度出力の質を推定することが重要である。
本稿では,無人航空機(UAV)のための最先端の深度推定手法であるM4Depthを,関節深度と不確実性の推定のために拡張する方法について述べる。
そこで,我々は,m4depth が生成する視差に関する不確実性推定を深さに関する不確実性推定に変換する解を示し,標準確率的アプローチよりも優れることを示す。
各種公開データセットに対する実験により,ゼロショット転送においても,本手法が一貫した動作を示す。
また,従来のマルチビュー深度推定手法と比較して,2.5倍高速かつ因果性があるにもかかわらず,従来のマルチビュー深度推定手法と比較すると,有意な値が得られる。
このメソッドのコードはhttps://github.com/michael-fonder/m4depthuで公開されている。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Diversity Matters: Fully Exploiting Depth Clues for Reliable Monocular
3D Object Detection [37.37316176663782]
本研究では,モノクロ3次元画像のサブタスクから視覚的手がかりを完全に探索する深度問題解決システムを提案する。
提案手法は,KITTIの3次元オブジェクト検出ベンチマークにおいて,テスト分割のモードレベルに対して,現行のベストメソッドを20%以上上回っている。
論文 参考訳(メタデータ) (2022-05-19T08:12:55Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - On the Sins of Image Synthesis Loss for Self-supervised Depth Estimation [60.780823530087446]
画像合成の改善は深度推定の改善を必要としないことを示す。
この発散現象は、データから生じるアレラトリックな不確実性に起因している。
この観察された発散は、以前に報告されたり、深く研究されたりしていない。
論文 参考訳(メタデータ) (2021-09-13T17:57:24Z) - Bayesian Deep Basis Fitting for Depth Completion with Uncertainty [13.2830249140166]
ベイズエビデンスフレームワーク内の深度完成のために、Deep Basis Fitting(DBF)を拡張します。
ベイズ処理を採用することにより,1)高品質の不確実性推定の予測が可能となり,2)疎度測定の少ない深度完遂が可能となった。
論文 参考訳(メタデータ) (2021-03-29T00:40:02Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - A New Distributional Ranking Loss With Uncertainty: Illustrated in
Relative Depth Estimation [0.0]
単一画像からの相対深度推定問題に対する新しいアプローチを提案する。
奥行きスコアを直接回帰する代わりに、この問題を深さを超える確率分布の推定として定式化する。
本モデルでは,より近い画素の深さよりも近い画素の深さの確率を高めるために,新たなランキング損失である分布損失を提案する。
論文 参考訳(メタデータ) (2020-10-14T13:47:18Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - On the uncertainty of self-supervised monocular depth estimation [52.13311094743952]
単眼深度推定のための自己監督的パラダイムは、基礎的な真理アノテーションを全く必要としないため、非常に魅力的である。
我々は,このタスクの不確かさを推定する方法と,これが深さ精度にどのように影響するかを初めて検討する。
自己教師型アプローチに特化して設計された,斬新な手法を提案する。
論文 参考訳(メタデータ) (2020-05-13T09:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。