論文の概要: Deep Leaning-Based Ultra-Fast Stair Detection
- arxiv url: http://arxiv.org/abs/2201.05275v1
- Date: Fri, 14 Jan 2022 02:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 15:02:11.440334
- Title: Deep Leaning-Based Ultra-Fast Stair Detection
- Title(参考訳): 深い傾きに基づく超高速階段検出
- Authors: Chen Wang, Zhongcai Pei, Shuang Qiu, Zhiyong Tang
- Abstract要約: 深層学習に基づく階段線検出のためのエンドツーエンド手法を提案する。
実験では,速度と精度の両面で高い性能が得られる。
軽量版は、同じ解像度で毎秒300フレーム以上を達成できる。
- 参考スコア(独自算出の注目度): 6.362951673024623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Staircases are some of the most common building structures in urban
environments. Stair detection is an important task for various applications,
including the environmental perception of exoskeleton robots, humanoid robots,
and rescue robots and the navigation of visually impaired people. Most existing
stair detection algorithms have difficulty dealing with the diversity of stair
structure materials, extreme light and serious occlusion. Inspired by human
perception, we propose an end-to-end method based on deep learning.
Specifically, we treat the process of stair line detection as a multitask
involving coarse-grained semantic segmentation and object detection. The input
images are divided into cells, and a simple neural network is used to judge
whether each cell contains stair lines. For cells containing stair lines, the
locations of the stair lines relative to each cell are regressed. Extensive
experiments on our dataset show that our method can achieve high performance in
terms of both speed and accuracy. A lightweight version can even achieve 300+
frames per second with the same resolution. Our code is available at GitHub.
- Abstract(参考訳): 階段は都市環境において最も一般的な建物である。
階段検出は、外骨格ロボットの環境知覚、ヒューマノイドロボット、救助ロボット、視覚障害者のナビゲーションなど、様々な用途において重要なタスクである。
既存の階段検出アルゴリズムの多くは、階段構造材料の多様性、極端な光、深刻な閉塞を扱うのが困難である。
人間の知覚に触発され,深層学習に基づくエンドツーエンドの手法を提案する。
具体的には,階段線検出の過程を,粗いセマンティックセグメンテーションとオブジェクト検出を含むマルチタスクとして扱う。
入力画像はセルに分割され、各セルが階段線を含むか否かを単純なニューラルネットワークで判断する。
階段線を含む細胞については、各細胞に対する階段線の位置を後退させる。
データセット上での広範な実験により,本手法は速度と精度の両面で高い性能を実現することができた。
軽量版は、同じ解像度で毎秒300フレーム以上を達成できる。
私たちのコードはGitHubで入手可能です。
関連論文リスト
- Staircase Localization for Autonomous Exploration in Urban Environments [7.301415426190581]
都市環境を自律的に探索するロボットのための階段位置決め手法を提案する。
提案手法では, 階段検出, 線路セグメント検出, 階段位置決めモジュールの3つのモジュールからなるカスケードパイプラインの方式でモジュール設計を行う。
論文 参考訳(メタデータ) (2024-03-26T02:28:49Z) - StairNet: Visual Recognition of Stairs for Human-Robot Locomotion [2.3811618212533663]
StairNetは、階段の視覚的感知と認識のための新しいディープラーニングモデルの開発を支援するイニシアチブである。
本稿では,515,000枚以上の手動ラベル付き画像を用いた大規模データセットの開発について概説する。
ロボット移動のための新しい視覚認識システムを開発・研究する上で,StairNetは有効なプラットフォームであることを示す。
論文 参考訳(メタデータ) (2023-10-31T17:30:57Z) - StairNetV3: Depth-aware Stair Modeling using Deep Learning [6.145334325463317]
視覚に基づく階段認識は、自律的な移動ロボットが階段を登るという課題に対処するのに役立つ。
現在の単眼視法では、深度情報なしで階段を正確にモデル化することは困難である。
本稿では,単眼視のための深度対応階段モデリング手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T08:11:40Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - RGB-D based Stair Detection using Deep Learning for Autonomous Stair
Climbing [6.362951673024623]
本稿では,RGBマップと深度マップの両方の入力を持つニューラルネットワークアーキテクチャを提案する。
具体的には,RGBマップと深度マップの相補関係をネットワークが学習できるように,選択モジュールを設計する。
提案手法は,従来の最先端深層学習法と比較して精度の向上とリコールが可能であることを示す。
論文 参考訳(メタデータ) (2022-12-02T11:22:52Z) - Deep Hierarchical Planning from Pixels [86.14687388689204]
Directorは、学習された世界モデルの潜在空間内で計画し、ピクセルから直接階層的な振る舞いを学ぶ方法である。
潜在空間で運用されているにもかかわらず、世界モデルは視覚化のためにゴールを画像にデコードできるため、決定は解釈可能である。
Directorはまた、ビジュアルコントロール、Atariゲーム、DMLabレベルなど、幅広い環境で成功した行動を学ぶ。
論文 参考訳(メタデータ) (2022-06-08T18:20:15Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。