論文の概要: Learning Locomotion Skills in Evolvable Robots
- arxiv url: http://arxiv.org/abs/2010.09531v1
- Date: Mon, 19 Oct 2020 14:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:19:12.752417
- Title: Learning Locomotion Skills in Evolvable Robots
- Title(参考訳): 進化型ロボットにおけるロコモーションスキルの学習
- Authors: Gongjin Lan, Maarten van Hooft, Matteo De Carlo, Jakub M. Tomczak,
A.E. Eiben
- Abstract要約: 本稿では,任意の形状のモジュール型ロボットが目標に向かって歩いたり,移動した場合にこの目標に従うことを学習できるようにするための,コントローラアーキテクチャと汎用学習手法を提案する。
我々のアプローチは、現実世界の3つのシナリオにおいて、クモ、ヤモリ、そしてその子孫の3つのロボットに対して検証されている。
- 参考スコア(独自算出の注目度): 10.167123492952694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The challenge of robotic reproduction -- making of new robots by recombining
two existing ones -- has been recently cracked and physically evolving robot
systems have come within reach. Here we address the next big hurdle: producing
an adequate brain for a newborn robot. In particular, we address the task of
targeted locomotion which is arguably a fundamental skill in any practical
implementation. We introduce a controller architecture and a generic learning
method to allow a modular robot with an arbitrary shape to learn to walk
towards a target and follow this target if it moves. Our approach is validated
on three robots, a spider, a gecko, and their offspring, in three real-world
scenarios.
- Abstract(参考訳): ロボットの再生 ― 既存の2つのロボットを組み換えることで新しいロボットを作ること ― の課題が最近解決され、物理的に進化するロボットシステムが到達した。
ここでは、次の大きなハードルである、新生児ロボットのための適切な脳を作ることに対処します。
特に,本研究は,現実的な実装における基本的スキルである目標移動の課題に対処する。
本稿では,任意の形状のモジュラーロボットが目標に向かって歩き,移動した場合にこの目標を追従することを可能にする,コントローラアーキテクチャと汎用学習手法を提案する。
私たちのアプローチは、3つの現実のシナリオにおいて、クモ、ヤモリ、その子孫という3つのロボットで検証されます。
関連論文リスト
- HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Correspondence learning between morphologically different robots via
task demonstrations [2.1374208474242815]
形態の異なる2つ以上のロボットの対応関係を学習する手法を提案する。
本提案手法では,関節制御付き固定ベースマニピュレータロボットと差動駆動移動ロボットとが対応可能である。
本研究では,実際のマニピュレータロボットとシミュレートされた移動ロボットとの対応学習の概念実証を行う。
論文 参考訳(メタデータ) (2023-10-20T12:42:06Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - Adaptation of Quadruped Robot Locomotion with Meta-Learning [64.71260357476602]
本研究では,多岐にわたる移動課題を解くロボットの訓練にメタ強化学習を用いることを実証する。
メタトレーニングロボットのパフォーマンスは、単一のタスクでトレーニングされたロボットと似ている。
論文 参考訳(メタデータ) (2021-07-08T10:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。