論文の概要: RGB-D based Stair Detection using Deep Learning for Autonomous Stair
Climbing
- arxiv url: http://arxiv.org/abs/2212.01098v1
- Date: Fri, 2 Dec 2022 11:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:33:52.308352
- Title: RGB-D based Stair Detection using Deep Learning for Autonomous Stair
Climbing
- Title(参考訳): 深層学習を用いたrgb-dによる階段自動登山の階段検出
- Authors: Chen Wang, Zhongcai Pei, Shuang Qiu, Zhiyong Tang
- Abstract要約: 本稿では,RGBマップと深度マップの両方の入力を持つニューラルネットワークアーキテクチャを提案する。
具体的には,RGBマップと深度マップの相補関係をネットワークが学習できるように,選択モジュールを設計する。
提案手法は,従来の最先端深層学習法と比較して精度の向上とリコールが可能であることを示す。
- 参考スコア(独自算出の注目度): 6.362951673024623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stairs are common building structures in urban environment, and stair
detection is an important part of environment perception for autonomous mobile
robots. Most existing algorithms have difficulty combining the visual
information from binocular sensors effectively and ensuring reliable detection
at night and in the case of extremely fuzzy visual clues. To solve these
problems, we propose a neural network architecture with inputs of both RGB map
and depth map. Specifically, we design the selective module which can make the
network learn the complementary relationship between RGB map and depth map and
effectively combine the information from RGB map and depth map in different
scenes. In addition, we also design a line clustering algorithm for the
post-processing of detection results, which can make full use of the detection
results to obtain the geometric parameters of stairs. Experiments on our
dataset show that our method can achieve better accuracy and recall compared
with the previous state-of-the-art deep learning method, which are 5.64% and
7.97%, respectively. Our method also has extremely fast detection speed, and a
lightweight version can achieve 300 + frames per second with the same
resolution, which can meet the needs of most real-time detection scenes.
- Abstract(参考訳): 階段は都市環境における一般的な建物構造であり、階段検出は自律移動ロボットの環境認識の重要な部分である。
既存のアルゴリズムの多くは、双眼鏡センサーからの視覚情報を効果的に組み合わせ、夜間および極めてファジィな視覚手がかりの場合の信頼性の高い検出を困難にしている。
これらの問題を解決するために,RGBマップと深度マップの両方の入力を持つニューラルネットワークアーキテクチャを提案する。
具体的には、RGBマップと深度マップの相補関係をネットワークに学習させ、RGBマップと深度マップの情報を異なるシーンで効果的に組み合わせる選択モジュールを設計する。
また,検出結果を完全に活用し,階段の幾何パラメータを求めるために,検出結果の処理後のラインクラスタリングアルゴリズムも設計した。
データセットを用いた実験では,従来の5.64%と7.97%のディープラーニング法と比較して,精度と再現性が向上した。
また,本手法は検出速度も極めて高速であり,高解像度の軽量バージョンでは毎秒300フレーム以上の処理が可能であり,ほとんどのリアルタイム検出シーンのニーズを満たすことができる。
関連論文リスト
- Exploring Deep Learning Image Super-Resolution for Iris Recognition [50.43429968821899]
重畳自動エンコーダ(SAE)と畳み込みニューラルネットワーク(CNN)の2つの深層学習単一画像超解法手法を提案する。
精度評価と認識実験により,1.872個の近赤外虹彩画像のデータベースを用いて評価を行い,比較アルゴリズムよりも深層学習の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:57:48Z) - Multi-Modal Multi-Task (3MT) Road Segmentation [0.8287206589886879]
我々は、多くのSOTA作業で通常行われているように、代わりに生のセンサー入力を使用することに重点を置いており、高い事前処理コストを必要とするアーキテクチャを活用している。
本研究では,複数センサからのデータをマルチタスク学習アーキテクチャに組み込むことにより,道路セグメンテーションの費用対効果,高精度なソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-23T08:15:15Z) - StairNetV3: Depth-aware Stair Modeling using Deep Learning [6.145334325463317]
視覚に基づく階段認識は、自律的な移動ロボットが階段を登るという課題に対処するのに役立つ。
現在の単眼視法では、深度情報なしで階段を正確にモデル化することは困難である。
本稿では,単眼視のための深度対応階段モデリング手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T08:11:40Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - BS3D: Building-scale 3D Reconstruction from RGB-D Images [25.604775584883413]
本稿では,消費者向け深度カメラを用いた大規模3次元再構築のための使い易いフレームワークを提案する。
複雑で高価な買収設定とは異なり、当社のシステムはクラウドソーシングを可能にする。
論文 参考訳(メタデータ) (2023-01-03T11:46:14Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Automatic extraction of road intersection points from USGS historical
map series using deep convolutional neural networks [0.0]
道路交差点のデータは、異なる地理空間的応用と分析に利用されてきた。
我々は、ディープ畳み込みニューラルネットワークを領域ベースCNNと呼ばれるオブジェクト検出タスクに使用する標準パラダイムを採用した。
また、従来のコンピュータビジョンアルゴリズムと比較して、RCNNはより正確な抽出を提供する。
論文 参考訳(メタデータ) (2020-07-14T23:51:15Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。