論文の概要: Seeing-Eye Quadruped Navigation with Force Responsive Locomotion Control
- arxiv url: http://arxiv.org/abs/2309.04370v1
- Date: Fri, 8 Sep 2023 15:02:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 13:14:26.521856
- Title: Seeing-Eye Quadruped Navigation with Force Responsive Locomotion Control
- Title(参考訳): 力応答性ロコモーション制御による目視四足歩行
- Authors: David DeFazio, Eisuke Hirota, Shiqi Zhang
- Abstract要約: 目を見つめるロボットは、視覚障害者を導くのに役立つツールであり、大きな社会的影響をもたらす可能性がある。
実際のガイドドッグ設定で頻繁に発生する、人間からの外部タグは誰も考慮しなかった。
目隠しされた人間を持つ現実の四足歩行ロボットに、我々の完全な視線ロボットシステムを実演する。
- 参考スコア(独自算出の注目度): 2.832383052276894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Seeing-eye robots are very useful tools for guiding visually impaired people,
potentially producing a huge societal impact given the low availability and
high cost of real guide dogs. Although a few seeing-eye robot systems have
already been demonstrated, none considered external tugs from humans, which
frequently occur in a real guide dog setting. In this paper, we simultaneously
train a locomotion controller that is robust to external tugging forces via
Reinforcement Learning (RL), and an external force estimator via supervised
learning. The controller ensures stable walking, and the force estimator
enables the robot to respond to the external forces from the human. These
forces are used to guide the robot to the global goal, which is unknown to the
robot, while the robot guides the human around nearby obstacles via a local
planner. Experimental results in simulation and on hardware show that our
controller is robust to external forces, and our seeing-eye system can
accurately detect force direction. We demonstrate our full seeing-eye robot
system on a real quadruped robot with a blindfolded human. The video can be
seen at our project page: https://bu-air-lab.github.io/guide_dog/
- Abstract(参考訳): 目視ロボットは視覚障害者を誘導するのに非常に有用なツールであり、真のガイド犬の安価で高価であることから、社会的な影響をもたらす可能性がある。
目に見えるロボットシステムはすでにいくつか実証されているが、実際のガイド犬の設定でしばしば発生する人間からの外部タグは考慮されていない。
本稿では,強化学習(Reinforcement Learning, RL)を介して外力に頑健な移動制御器と,教師あり学習による外力推定器を同時に訓練する。
制御器は安定歩行を保証し、力推定器はロボットが人間の外部力に反応できるようにする。
これらの力は、ロボットが知らないグローバル目標にロボットを誘導するために使用され、ロボットは地元のプランナーを介して近くの障害物の周りで人間を誘導する。
シミュレーションおよびハードウェアにおける実験結果から,制御器は外力に頑健であり,視眼系は外力方向を正確に検出できることがわかった。
目隠しされた人間を持つ現実の四足歩行ロボットに、我々の完全な視線ロボットシステムを実演する。
ビデオはプロジェクトのページで見ることができる。 https://bu-air-lab.github.io/guide_dog/
関連論文リスト
- LLM Granularity for On-the-Fly Robot Control [3.5015824313818578]
視覚が信頼できない、あるいは利用できない状況では、ロボットを制御するための言語のみに頼ることができるのか?
本研究は,(1)様々な粒度の言語プロンプトに対する補助ロボットの応答を評価し,(2)ロボットのオンザフライ制御の必要性と実現可能性を探る。
論文 参考訳(メタデータ) (2024-06-20T18:17:48Z) - Learning Visual Quadrupedal Loco-Manipulation from Demonstrations [36.1894630015056]
我々は四足歩行ロボットに、足だけを使って現実世界の操作タスクを実行させることを目標としている。
我々はロコ操作プロセスを低レベル強化学習(RL)ベースのコントローラと高レベル行動クローン(BC)ベースのプランナに分解する。
提案手法はシミュレーションや実世界の実験を通じて検証され,移動性や高精度なタスクをロボットが実行できることが実証された。
論文 参考訳(メタデータ) (2024-03-29T17:59:05Z) - Pedipulate: Enabling Manipulation Skills using a Quadruped Robot's Leg [11.129918951736052]
脚のついたロボットは、メンテナンス、ホームサポート、探索のシナリオにおいて不可欠になる可能性がある。
本研究では,ロボットの脚を操作に用いたペディピュレーションについて検討する。
論文 参考訳(メタデータ) (2024-02-16T17:20:45Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Accessible Robot Control in Mixed Reality [0.0]
主に身体障害者を対象とする。
ホロレン2の視線追跡および頭部運動追跡技術は、制御コマンドの送信に利用される。
論文 参考訳(メタデータ) (2023-06-04T16:05:26Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - Fleet-DAgger: Interactive Robot Fleet Learning with Scalable Human
Supervision [72.4735163268491]
ロボットの商業的および産業的な展開は、実行中にリモートの人間のテレオペレーターにフォールバックすることが多い。
我々は対話型フリートラーニング(Interactive Fleet Learning, IFL)の設定を定式化し、複数のロボットが対話型クエリを行い、複数の人間スーパーバイザーから学習する。
IFLアルゴリズムのファミリーであるFleet-DAggerを提案し、新しいFleet-DAggerアルゴリズムをシミュレーションで4つのベースラインと比較する。
論文 参考訳(メタデータ) (2022-06-29T01:23:57Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。