論文の概要: LBGP: Learning Based Goal Planning for Autonomous Following in Front
- arxiv url: http://arxiv.org/abs/2011.03125v1
- Date: Thu, 5 Nov 2020 22:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:49:33.662623
- Title: LBGP: Learning Based Goal Planning for Autonomous Following in Front
- Title(参考訳): LBGP:先進的な自律的追従のための学習目標計画
- Authors: Payam Nikdel, Richard Vaughan, Mo Chen
- Abstract要約: 本稿では, 深部強化学習(RL)と古典的軌道計画を組み合わせたハイブリッド・ソリューションについて検討する。
自律ロボットは、人が自由に歩き回るとき、人の前に留まることを目的としています。
本システムは,シミュレーションと実世界実験の両方において,エンド・ツー・エンドの代替品と比較して,先行技術よりも信頼性が高い。
- 参考スコア(独自算出の注目度): 16.13120109400351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates a hybrid solution which combines deep reinforcement
learning (RL) and classical trajectory planning for the following in front
application. Here, an autonomous robot aims to stay ahead of a person as the
person freely walks around. Following in front is a challenging problem as the
user's intended trajectory is unknown and needs to be estimated, explicitly or
implicitly, by the robot. In addition, the robot needs to find a feasible way
to safely navigate ahead of human trajectory. Our deep RL module implicitly
estimates human trajectory and produces short-term navigational goals to guide
the robot. These goals are used by a trajectory planner to smoothly navigate
the robot to the short-term goals, and eventually in front of the user. We
employ curriculum learning in the deep RL module to efficiently achieve a high
return. Our system outperforms the state-of-the-art in following ahead and is
more reliable compared to end-to-end alternatives in both the simulation and
real world experiments. In contrast to a pure deep RL approach, we demonstrate
zero-shot transfer of the trained policy from simulation to the real world.
- Abstract(参考訳): 本稿では,前処理における深層強化学習(rl)と古典的軌道計画を組み合わせたハイブリッドソリューションについて検討する。
ここでは、自律ロボットは、人が自由に歩き回るときに、人の前にとどまることを目指している。
ユーザの意図した軌道が未知であり、ロボットによって明示的に、あるいは暗黙的に推定される必要があるため、前者に従うことは難しい問題である。
さらに、ロボットは人間の軌道を安全に進むための実現可能な方法を見つける必要がある。
我々の深部RLモジュールは、人間の軌道を暗黙的に推定し、ロボットを誘導するための短期的な航法目標を生成する。
これらのゴールは、軌道プランナーがロボットを短期目標、最終的にはユーザの前でスムーズにナビゲートするために使用する。
我々は,deep rlモジュールでカリキュラム学習を行い,高いリターンを達成する。
本システムは,シミュレーションと実世界実験の両方において,エンド・ツー・エンドの代替品よりも信頼性が高い。
純粋に深いRLアプローチとは対照的に、訓練されたポリシーをシミュレーションから実世界へのゼロショット転送を実証する。
関連論文リスト
- Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Robot Navigation with Reinforcement Learned Path Generation and
Fine-Tuned Motion Control [5.187605914580086]
未知の環境を事前に探索することなく,移動ロボットナビゲーションのための新しい強化学習ベースパス生成(RL-PG)手法を提案する。
シミュレーションと物理プラットフォームの両方にモデルをデプロイし,ロボットナビゲーションを効果的かつ安全に行うことを実証する。
論文 参考訳(メタデータ) (2022-10-19T15:10:52Z) - Advanced Skills by Learning Locomotion and Local Navigation End-to-End [10.872193480485596]
本研究は, 深層強化学習によるエンドツーエンド政策の訓練により, 完全な問題を解決することを提案する。
実際の四足歩行ロボットにおけるポリシーの展開を実演する。
論文 参考訳(メタデータ) (2022-09-26T16:35:00Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Autonomous Navigation in Dynamic Environments: Deep Learning-Based
Approach [0.0]
本論文は,各スキームの長所と短所を浮き彫りにした深層学習に基づくアプローチを考察する。
畳み込みニューラルネットワーク(CNN)に基づくディープラーニング手法の1つは、ソフトウェア実装によって実現される。
本研究では, レーザースキャナの代わりに単眼カメラを使用するという基礎から, レストラン, 博物館などの屋内アプリケーションに対して, 低コストなアプローチを提案する。
論文 参考訳(メタデータ) (2021-02-03T23:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。