論文の概要: DogSurf: Quadruped Robot Capable of GRU-based Surface Recognition for
Blind Person Navigation
- arxiv url: http://arxiv.org/abs/2402.03156v1
- Date: Mon, 5 Feb 2024 16:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:08:10.895984
- Title: DogSurf: Quadruped Robot Capable of GRU-based Surface Recognition for
Blind Person Navigation
- Title(参考訳): DogSurf: 盲人ナビゲーションのためのGRUによる表面認識が可能な四足歩行ロボット
- Authors: Artem Bazhenov, Vladimir Berman, Sergei Satsevich, Olga Shalopanova,
Miguel Altamirano Cabrera, Artem Lykov, Dzmitry Tsetserukou
- Abstract要約: 提案手法では,四足歩行ロボットがすべり面を検知し,音と触覚のフィードバックを用いて,停止するタイミングをユーザに知らせる。
四足歩行ロボットのマルチクラス表面分類における平均精度99.925%の最先端GRUベースのニューラルネットワークアーキテクチャが提案された。
- 参考スコア(独自算出の注目度): 2.201107282249874
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces DogSurf - a newapproach of using quadruped robots to
help visually impaired people navigate in real world. The presented method
allows the quadruped robot to detect slippery surfaces, and to use audio and
haptic feedback to inform the user when to stop. A state-of-the-art GRU-based
neural network architecture with mean accuracy of 99.925% was proposed for the
task of multiclass surface classification for quadruped robots. A dataset was
collected on a Unitree Go1 Edu robot. The dataset and code have been posted to
the public domain.
- Abstract(参考訳): 本稿では、視覚障害者が現実世界をナビゲートするのを助けるために四足歩行ロボットを使った新しいアプローチであるDogSurfを紹介する。
提案手法では,四足歩行ロボットがすべり面を検知し,音と触覚のフィードバックを用いて,停止するタイミングをユーザに知らせる。
四足歩行ロボットのマルチクラス表面分類における平均精度99.925%の最先端GRUベースのニューラルネットワークアーキテクチャが提案された。
データセットはUnitree Go1 Eduロボットで収集された。
データセットとコードはパブリックドメインに投稿されている。
関連論文リスト
- Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - DEVI: Open-source Human-Robot Interface for Interactive Receptionist
Systems [0.8972186395640678]
DEVI」は、オープンソースのロボット受付インテリジェンスコアです。
本稿では,DEVIを用いた物理ロボットのプロトタイプ実装について述べる。
DEVIを用いて行った実験は,提案方式の有効性を示した。
論文 参考訳(メタデータ) (2021-01-02T17:08:20Z) - High-Speed Robot Navigation using Predicted Occupancy Maps [0.0]
ロボットがセンサの地平線を越えて広がる空間を高速で予測できるアルゴリズム手法について検討する。
我々は、人間のアノテートラベルを必要とせず、実世界のデータからトレーニングされた生成ニューラルネットワークを用いてこれを実現する。
既存の制御アルゴリズムを拡張し、予測空間を活用することで、衝突のない計画とナビゲーションを高速で改善します。
論文 参考訳(メタデータ) (2020-12-22T16:25:12Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Visual Navigation in Real-World Indoor Environments Using End-to-End
Deep Reinforcement Learning [2.7071541526963805]
そこで本研究では,実際のロボットにトレーニング済みポリシーを直接展開する手法を提案する。
このポリシーは、現実世界の環境から収集された画像に基づいて微調整される。
30回のナビゲーション実験では、このロボットは86.7%以上のケースで目標の0.3メートル付近に到達した。
論文 参考訳(メタデータ) (2020-10-21T11:22:30Z) - Deep Reinforcement learning for real autonomous mobile robot navigation
in indoor environments [0.0]
本研究では,地図やプランナーを使わずに,未知の環境下での自律型自律学習ロボットナビゲーションの概念を実証する。
ロボットの入力は、2DレーザースキャナーとRGB-Dカメラからの融合データと目標への向きのみである。
Asynchronous Advantage Actor-Critic Network(GA3C)の出力動作は、ロボットの線形および角速度である。
論文 参考訳(メタデータ) (2020-05-28T09:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。