論文の概要: PPMC RL Training Algorithm: Rough Terrain Intelligent Robots through
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.02655v2
- Date: Fri, 13 Mar 2020 08:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:02:48.894892
- Title: PPMC RL Training Algorithm: Rough Terrain Intelligent Robots through
Reinforcement Learning
- Title(参考訳): PPMC RLトレーニングアルゴリズム:強化学習によるラフテランの知的ロボット
- Authors: Tamir Blum and Kazuya Yoshida
- Abstract要約: 本稿では,任意のロボットに対して,粗い環境で一般化されたPPMCを指導する汎用的なトレーニングアルゴリズムを提案する。
我々は,ロボットが新しい地形マップに一般化することを学習し,100%の成功率を維持する実験を通して示す。
我々の知る限りでは、どんなロボットにも、粗い環境で一般化PPMCを教える汎用的なトレーニングアルゴリズムを導入する最初の論文である。
- 参考スコア(独自算出の注目度): 4.314956204483074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots can now learn how to make decisions and control themselves,
generalizing learned behaviors to unseen scenarios. In particular, AI powered
robots show promise in rough environments like the lunar surface, due to the
environmental uncertainties. We address this critical generalization aspect for
robot locomotion in rough terrain through a training algorithm we have created
called the Path Planning and Motion Control (PPMC) Training Algorithm. This
algorithm is coupled with any generic reinforcement learning algorithm to teach
robots how to respond to user commands and to travel to designated locations on
a single neural network. In this paper, we show that the algorithm works
independent of the robot structure, demonstrating that it works on a wheeled
rover in addition the past results on a quadruped walking robot. Further, we
take several big steps towards real world practicality by introducing a rough
highly uneven terrain. Critically, we show through experiments that the robot
learns to generalize to new rough terrain maps, retaining a 100% success rate.
To the best of our knowledge, this is the first paper to introduce a generic
training algorithm teaching generalized PPMC in rough environments to any
robot, with just the use of reinforcement learning.
- Abstract(参考訳): ロボットは意思決定の仕方を学習し、自らをコントロールし、学習した行動が見えないシナリオに一般化できる。
特に、AIを利用したロボットは、環境の不確実性のため、月面のような荒々しい環境での約束を示す。
そこで我々は,Pass Planning and Motion Control (PPMC) Training Algorithm と呼ばれるトレーニングアルゴリズムを用いて,荒地におけるロボットの移動を決定的に一般化する手法を提案する。
このアルゴリズムは、一般的な強化学習アルゴリズムと組み合わされ、ロボットにユーザーコマンドへの応答方法を教え、単一のニューラルネットワーク上で指定された場所に移動する。
本稿では,このアルゴリズムがロボット構造とは独立して動作することを示し,四足歩行ロボットの過去の結果に加えて車輪付きローバーでも動作することを示す。
さらに,荒削りな地形を導入することで,現実の実用性への大きな一歩を踏み出した。
批判的に、ロボットが新しい荒地マップに一般化することを学び、100%の成功率を維持していることを実験を通して示す。
我々の知る限りでは、強化学習のみを用いて、どんなロボットにも粗い環境で一般化されたPPMCを教える汎用的なトレーニングアルゴリズムを導入する最初の論文である。
関連論文リスト
- Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Quality-Diversity Optimisation on a Physical Robot Through
Dynamics-Aware and Reset-Free Learning [4.260312058817663]
本研究では,リセットフリーQD(RF-QD)アルゴリズムを用いて,物理ロボット上で直接コントローラを学習する。
本手法は,ロボットと環境との相互作用から学習したダイナミクスモデルを用いて,ロボットの動作を予測する。
RF-QDには、ロボットが外を歩いたときに安全なゾーンに戻すリカバリポリシーも含まれており、継続的な学習を可能にしている。
論文 参考訳(メタデータ) (2023-04-24T13:24:00Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Learning Bipedal Walking On Planned Footsteps For Humanoid Robots [5.127310126394387]
脚付きロボットのための深部強化学習(RL)ベースのコントローラーは、いくつかのロボットプラットフォームのために異なる環境を歩行する際、顕著な頑丈さを実証している。
ヒューマノイドロボットへのRLポリシーの適用を現実の環境で実現するためには,どのような方向にも堅牢な歩行を実現するシステムを構築することが不可欠である。
本稿では,あるステップシーケンスに従うポリシーを学習することで,この問題に対処する。
今後の2つのステップをポリシーに投入するだけで、一方向歩行、位置転換、立ち上がり、階段を登るのに十分であることを示す。
論文 参考訳(メタデータ) (2022-07-26T04:16:00Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Towards General and Autonomous Learning of Core Skills: A Case Study in
Locomotion [19.285099263193622]
我々は,足の広いロボットに対して,洗練された移動動作を学習できる学習フレームワークを開発した。
我々の学習フレームワークは、データ効率のよいマルチタスクRLアルゴリズムと、ロボット間で意味論的に同一の報酬関数のセットに依存している。
現実世界の四足ロボットを含む9種類のロボットに対して、同じアルゴリズムが、多種多様な再利用可能な運動スキルを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2020-08-06T08:23:55Z) - SQUIRL: Robust and Efficient Learning from Video Demonstration of
Long-Horizon Robotic Manipulation Tasks [8.756012472587601]
深層強化学習(RL)は複雑な操作タスクを学習するために用いられる。
RLは、ロボットが大量の現実世界の経験を収集する必要がある。
SQUIRLは、単一のビデオデモしか持たない、新しいが関連するロングホライゾンタスクを実行する。
論文 参考訳(メタデータ) (2020-03-10T20:26:26Z) - Efficient reinforcement learning control for continuum robots based on
Inexplicit Prior Knowledge [3.3645162441357437]
本稿では,未熟な事前知識に基づく効率的な強化学習手法を提案する。
本手法を用いることで、腱駆動ロボットのアクティブな視覚追跡と距離維持を実現することができる。
論文 参考訳(メタデータ) (2020-02-26T15:47:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。