論文の概要: On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2010.06626v2
- Date: Tue, 29 Dec 2020 01:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:20:11.613426
- Title: On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation
- Title(参考訳): 自律ナビゲーションのための単眼深度推定のための深層学習手法について
- Authors: Raul de Queiroz Mendes, Eduardo Godinho Ribeiro, Nicolas dos Santos
Rosa, Valdir Grassi Jr
- Abstract要約: 画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
- 参考スコア(独自算出の注目度): 1.9007546108571112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring the depth of images is a fundamental inverse problem within the
field of Computer Vision since depth information is obtained through 2D images,
which can be generated from infinite possibilities of observed real scenes.
Benefiting from the progress of Convolutional Neural Networks (CNNs) to explore
structural features and spatial image information, Single Image Depth
Estimation (SIDE) is often highlighted in scopes of scientific and
technological innovation, as this concept provides advantages related to its
low implementation cost and robustness to environmental conditions. In the
context of autonomous vehicles, state-of-the-art CNNs optimize the SIDE task by
producing high-quality depth maps, which are essential during the autonomous
navigation process in different locations. However, such networks are usually
supervised by sparse and noisy depth data, from Light Detection and Ranging
(LiDAR) laser scans, and are carried out at high computational cost, requiring
high-performance Graphic Processing Units (GPUs). Therefore, we propose a new
lightweight and fast supervised CNN architecture combined with novel feature
extraction models which are designed for real-world autonomous navigation. We
also introduce an efficient surface normals module, jointly with a simple
geometric 2.5D loss function, to solve SIDE problems. We also innovate by
incorporating multiple Deep Learning techniques, such as the use of
densification algorithms and additional semantic, surface normals and depth
information to train our framework. The method introduced in this work focuses
on robotic applications in indoor and outdoor environments and its results are
evaluated on the competitive and publicly available NYU Depth V2 and KITTI
Depth datasets.
- Abstract(参考訳): 画像の奥行きを推測することは、2次元画像を通じて奥行き情報が得られるため、コンピュータビジョンの分野における基本的な逆問題である。
コンボリューショナルニューラルネットワーク(CNN)の進歩から、構造的特徴や空間的イメージ情報を探究する上で、SIDE(Single Image Depth Estimation)はしばしば科学的・技術的イノベーションの範囲で強調される。
自動運転車の文脈では、最先端のCNNは、異なる場所における自律ナビゲーションプロセスにおいて必須となる高品質の深度マップを作成することによって、SIDEタスクを最適化する。
しかし、このようなネットワークは通常、光検出・ランシング(LiDAR)レーザースキャンから、スパースでノイズの多い深度データによって監視され、高速なグラフィカル処理ユニット(GPU)を必要とする計算コストで実行される。
そこで本研究では,現実の自律ナビゲーション用に設計された特徴抽出モデルと組み合わせた,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
デンシフィケーションアルゴリズムや追加のセマンティクス、サーフェスノーマル、深さ情報といった、複数のディープラーニング技術を組み込むことで、フレームワークをトレーニングします。
本研究で紹介された手法は,屋内および屋外におけるロボット応用に焦点を当て,nyu深度v2およびkitti深度データセットを用いて評価を行った。
関連論文リスト
- Scale-Translation Equivariant Network for Oceanic Internal Solitary Wave Localization [7.444865250744234]
内部孤立波(英:internal Solitary wave、ISW)は、内部の海洋でしばしば観測される重力波である。
光リモートセンシング画像における雲のカバーは、地表面の情報を可変的に曖昧にし、ぼやけたり、表面の観察を欠いたりする。
本稿では,ISWを自動検出するアルゴリズムを用いた機械学習ソリューションを提案する。
論文 参考訳(メタデータ) (2024-06-18T21:09:56Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Depth Monocular Estimation with Attention-based Encoder-Decoder Network
from Single Image [7.753378095194288]
ビジョンベースのアプローチは最近多くの注目を集めており、これらの欠点を克服することができる。
本研究では,格子状アーチファクトやぼやけたエッジに悩まされている1つの単眼画像から深度マップを推定する。
我々の新しいアプローチは、最小限のオーバーヘッドで現在の画像の焦点を見つけることができ、奥行き特性の損失を避けることができる。
論文 参考訳(メタデータ) (2022-10-24T23:01:25Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - End-to-End Framework for Efficient Deep Learning Using Metasurfaces
Optics [3.639016550240087]
本稿では,CNNを自由空間で光学的に計算するエンドツーエンドフレームワークを提案する。
我々のシステムは、最大で1桁の省エネを実現し、センサの設計を単純化し、ネットワークの精度を犠牲にする。
論文 参考訳(メタデータ) (2020-11-23T21:06:04Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - DepthNet Nano: A Highly Compact Self-Normalizing Neural Network for
Monocular Depth Estimation [76.90627702089357]
DepthNet Nanoは、人間の機械の共同設計戦略を用いて設計された単眼深度推定のためのコンパクトなディープニューラルネットワークである。
提案したDepthNet Nanoは、最先端のネットワークで同等の性能を保ちながら、高い効率のネットワークアーキテクチャを持っている。
論文 参考訳(メタデータ) (2020-04-17T00:41:35Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。