論文の概要: Analysis & Computational Complexity Reduction of Monocular and Stereo
Depth Estimation Techniques
- arxiv url: http://arxiv.org/abs/2206.09071v1
- Date: Sat, 18 Jun 2022 00:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 16:52:47.634715
- Title: Analysis & Computational Complexity Reduction of Monocular and Stereo
Depth Estimation Techniques
- Title(参考訳): 単眼およびステレオ深度推定手法の解析と計算複雑性の低減
- Authors: Rajeev Patwari, Varo Ly
- Abstract要約: 高精度なアルゴリズムは最高の深さ推定を提供するが、膨大な計算資源とエネルギー資源を消費する。
これまでの研究は、ステレオ深度推定を改善するための最先端手法(AnyNet)を開発することで、このトレードオフを改善することを示した。
新たなステレオビジョン法 (AnyNet) による実験により, モデルサイズが20%減少しても, 深度推定の精度は3%以上低下しないことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate depth estimation with lowest compute and energy cost is a crucial
requirement for unmanned and battery operated autonomous systems. Robotic
applications require real time depth estimation for navigation and decision
making under rapidly changing 3D surroundings. A high accuracy algorithm may
provide the best depth estimation but may consume tremendous compute and energy
resources. A general trade-off is to choose less accurate methods for initial
depth estimate and a more accurate yet compute intensive method when needed.
Previous work has shown this trade-off can be improved by developing a
state-of-the-art method (AnyNet) to improve stereo depth estimation.
We studied both the monocular and stereo vision depth estimation methods and
investigated methods to reduce computational complexity of these methods. This
was our baseline. Consequently, our experiments show reduction of monocular
depth estimation model size by ~75% reduces accuracy by less than 2% (SSIM
metric). Our experiments with the novel stereo vision method (AnyNet) show that
accuracy of depth estimation does not degrade more than 3% (three pixel error
metric) in spite of reduction in model size by ~20%. We have shown that smaller
models can indeed perform competitively.
- Abstract(参考訳): 計算とエネルギーコストの低い正確な深度推定は、無人・電池駆動自律システムにとって重要な要件である。
ロボットアプリケーションは、急速に変化する3次元環境下でのナビゲーションと意思決定のためにリアルタイムな深度推定を必要とする。
高精度なアルゴリズムは最高の深さ推定を提供するが、膨大な計算とエネルギー資源を消費する。
一般的なトレードオフは、初期深度推定の精度の低い方法と、必要であればより正確な計算集約手法を選択することである。
これまでの研究は、ステレオ深度推定を改善するための最先端手法(AnyNet)を開発することで、このトレードオフを改善することを示した。
単眼および立体視深度推定法について検討し,これらの手法の計算複雑性を低減する方法を検討した。
これが私たちの基準でした。
その結果, 単眼深度推定モデルサイズを約75%削減し, 精度を2%以下に抑えることができた(ssimメトリック)。
新たなステレオビジョン法 (AnyNet) による実験により, モデルサイズが約20%減少しても, 深度推定の精度は3%以上低下しないことがわかった。
より小さなモデルが実際に競争力を発揮することを示した。
関連論文リスト
- Deep Neighbor Layer Aggregation for Lightweight Self-Supervised
Monocular Depth Estimation [1.6775954077761863]
文脈的特徴融合を用いた完全畳み込み深度推定ネットワークを提案する。
UNet++やHRNetと比較して、我々は、小さなターゲットや高速移動オブジェクトに関する情報を予約するために、高解像度で低解像度の機能を使用します。
本手法は精度を犠牲にすることなくパラメータを削減する。
論文 参考訳(メタデータ) (2023-09-17T13:40:15Z) - Monocular Visual-Inertial Depth Estimation [66.71452943981558]
単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
論文 参考訳(メタデータ) (2023-03-21T18:47:34Z) - Depth Refinement for Improved Stereo Reconstruction [13.941756438712382]
立体画像からの深度推定の現在の技術は、なおも内蔵の欠点に悩まされている。
簡単な解析により、深度誤差は物体の距離に2乗比例することが明らかになった。
本研究では,深度推定に改良ネットワークを用いた簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-12-15T12:21:08Z) - Scale-aware direct monocular odometry [4.111899441919165]
本稿では,深部ニューラルネットワークからの深度予測に基づく直接単分子オードメトリーの枠組みを提案する。
提案手法は,従来の単分子SLAMよりも5倍から9倍精度が高く,ステレオシステムに近い精度である。
論文 参考訳(メタデータ) (2021-09-21T10:30:15Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Geometry Uncertainty Projection Network for Monocular 3D Object
Detection [138.24798140338095]
本稿では,予測および学習段階の誤り増幅問題に対処するために,幾何不確実性予測ネットワーク(GUP Net)を提案する。
具体的には, GUPモジュールを提案し, 推定深さの幾何誘導不確かさを求める。
トレーニング段階では,エラー増幅による不安定性を低減するための階層型タスク学習戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T06:59:07Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Fast Depth Estimation for View Synthesis [9.243157709083672]
ステレオ画像のシーケンスからの距離/深さを推定することは、3次元視覚において重要な要素である。
本稿では,拡張畳み込み,密結合型畳み込みモジュール,コンパクトデコーダ,スキップ接続を利用した新しい学習ベースフレームワークを提案する。
筆者らのネットワークは,それぞれ45%,34%の深さ推定とビュー合成を平均的に改善し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-14T14:10:42Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。