論文の概要: StairNetV3: Depth-aware Stair Modeling using Deep Learning
- arxiv url: http://arxiv.org/abs/2308.06715v1
- Date: Sun, 13 Aug 2023 08:11:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 15:42:54.518704
- Title: StairNetV3: Depth-aware Stair Modeling using Deep Learning
- Title(参考訳): StairNetV3:ディープラーニングを用いた深層認識ステアモデリング
- Authors: Chen Wang, Zhongcai Pei, Shuang Qiu, Yachun Wang, Zhiyong Tang
- Abstract要約: 視覚に基づく階段認識は、自律的な移動ロボットが階段を登るという課題に対処するのに役立つ。
現在の単眼視法では、深度情報なしで階段を正確にモデル化することは困難である。
本稿では,単眼視のための深度対応階段モデリング手法を提案する。
- 参考スコア(独自算出の注目度): 6.145334325463317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based stair perception can help autonomous mobile robots deal with the
challenge of climbing stairs, especially in unfamiliar environments. To address
the problem that current monocular vision methods are difficult to model stairs
accurately without depth information, this paper proposes a depth-aware stair
modeling method for monocular vision. Specifically, we take the extraction of
stair geometric features and the prediction of depth images as joint tasks in a
convolutional neural network (CNN), with the designed information propagation
architecture, we can achieve effective supervision for stair geometric feature
learning by depth information. In addition, to complete the stair modeling, we
take the convex lines, concave lines, tread surfaces and riser surfaces as
stair geometric features and apply Gaussian kernels to enable the network to
predict contextual information within the stair lines. Combined with the depth
information obtained by depth sensors, we propose a stair point cloud
reconstruction method that can quickly get point clouds belonging to the stair
step surfaces. Experiments on our dataset show that our method has a
significant improvement over the previous best monocular vision method, with an
intersection over union (IOU) increase of 3.4 %, and the lightweight version
has a fast detection speed and can meet the requirements of most real-time
applications. Our dataset is available at
https://data.mendeley.com/datasets/6kffmjt7g2/1.
- Abstract(参考訳): 視覚に基づく階段認識は、特に馴染みのない環境では、自律的な移動ロボットが階段を登るという課題に対処するのに役立つ。
本稿では,現在の単眼視法では深度情報なしでは階段を正確にモデル化することが困難である問題に対処するため,単眼視のための深度認識階段モデリング手法を提案する。
具体的には,畳み込みニューラルネットワーク(CNN)における段差幾何学的特徴の抽出と深度画像の予測を,設計した情報伝達アーキテクチャと組み合わせることで,深度情報による段差幾何学的特徴学習を効果的に行うことができる。
さらに, 階段モデルを完成させるために, 凸線, 凹線, トレッド面, ライザー面を階段幾何学的特徴とし, ガウスカーネルを用いて階段線内の文脈情報を予測する。
深度センサにより得られた深度情報と組み合わせて,階段の階段面に属する点雲を迅速に取得できる階段点雲再構成法を提案する。
提案手法は,従来の最良の単眼視法よりも大幅に改善され,結合(IOU)の交差が3.4%増加し,軽量バージョンは高速検出速度を有し,ほとんどのリアルタイムアプリケーションの要求を満たすことができることを示す。
私たちのデータセットはhttps://data.mendeley.com/datasets/6kffmjt7g2/1で利用可能です。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - StairNet: Visual Recognition of Stairs for Human-Robot Locomotion [2.3811618212533663]
StairNetは、階段の視覚的感知と認識のための新しいディープラーニングモデルの開発を支援するイニシアチブである。
本稿では,515,000枚以上の手動ラベル付き画像を用いた大規模データセットの開発について概説する。
ロボット移動のための新しい視覚認識システムを開発・研究する上で,StairNetは有効なプラットフォームであることを示す。
論文 参考訳(メタデータ) (2023-10-31T17:30:57Z) - Semi-supervised Learning from Street-View Images and OpenStreetMap for
Automatic Building Height Estimation [59.6553058160943]
本稿では,Mapillary SVIとOpenStreetMapのデータから建物の高さを自動的に推定する半教師付き学習(SSL)手法を提案する。
提案手法は, 平均絶対誤差(MAE)が約2.1mである建物の高さを推定する上で, 明らかな性能向上につながる。
予備結果は,低コストなVGIデータに基づく提案手法のスケールアップに向けた今後の取り組みを期待し,動機づけるものである。
論文 参考訳(メタデータ) (2023-07-05T18:16:30Z) - RGB-D based Stair Detection using Deep Learning for Autonomous Stair
Climbing [6.362951673024623]
本稿では,RGBマップと深度マップの両方の入力を持つニューラルネットワークアーキテクチャを提案する。
具体的には,RGBマップと深度マップの相補関係をネットワークが学習できるように,選択モジュールを設計する。
提案手法は,従来の最先端深層学習法と比較して精度の向上とリコールが可能であることを示す。
論文 参考訳(メタデータ) (2022-12-02T11:22:52Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Visual Attention-based Self-supervised Absolute Depth Estimation using
Geometric Priors in Autonomous Driving [8.045833295463094]
空間的注意とチャネルの注意をすべてのステージに適用する,完全に視覚的注意に基づく奥行き(VADepth)ネットワークを導入する。
VADepthネットワークは、空間的およびチャネル的次元に沿った特徴の依存関係を長距離にわたって連続的に抽出することにより、重要な詳細を効果的に保存することができる。
KITTIデータセットの実験結果は、このアーキテクチャが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2022-05-18T08:01:38Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Deep Leaning-Based Ultra-Fast Stair Detection [6.362951673024623]
深層学習に基づく階段線検出のためのエンドツーエンド手法を提案する。
実験では,速度と精度の両面で高い性能が得られる。
軽量版は、同じ解像度で毎秒300フレーム以上を達成できる。
論文 参考訳(メタデータ) (2022-01-14T02:05:01Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Height estimation from single aerial images using a deep ordinal
regression network [12.991266182762597]
単体画像からの高度推定の曖昧で未解決な問題に対処する。
深層学習、特に深層畳み込みニューラルネットワーク(CNN)の成功により、いくつかの研究は、単一の空中画像から高さ情報を推定することを提案した。
本稿では,高さ値を間隔増加間隔に分割し,回帰問題を順序回帰問題に変換することを提案する。
論文 参考訳(メタデータ) (2020-06-04T12:03:51Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。