論文の概要: Scaffolded Gait Learning of a Quadruped Robot with Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2101.09961v1
- Date: Mon, 25 Jan 2021 08:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 06:13:11.469732
- Title: Scaffolded Gait Learning of a Quadruped Robot with Bayesian Optimization
- Title(参考訳): ベイズ最適化による4足歩行ロボットの足場歩行学習
- Authors: Keyan Zhai, Chu'an Li, Andre Rosendo
- Abstract要約: 緩やかに削減された支持は、一定高さでの支持よりも安定した歩行を創出できることが示される。
シミュレーションと現実のギャップはロボットに壊滅的な失敗をもたらす可能性があるが、提案手法は新たな行動を学ぶ際のスピードと安全性を組み合わせたものである。
- 参考スコア(独自算出の注目度): 1.5853886606819705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During learning trials, systems are exposed to different failure conditions
which may break robotic parts before a safe behavior is discovered. Humans
contour this problem by grounding their learning to a safer structure/control
first and gradually increasing its difficulty. This paper presents the impact
of a similar supports in the learning of a stable gait on a quadruped robot.
Based on the psychological theory of instructional scaffolding, we provide
different support settings to our robot, evaluated with strain gauges, and use
Bayesian Optimization to conduct a parametric search towards a stable Raibert
controller. We perform several experiments to measure the relation between
constant supports and gradually reduced supports during gait learning, and our
results show that a gradually reduced support is capable of creating a more
stable gait than a support at a fixed height. Although gaps between simulation
and reality can lead robots to catastrophic failures, our proposed method
combines speed and safety when learning a new behavior.
- Abstract(参考訳): 学習試験の間、システムは異なる障害条件に晒され、安全な行動が見つかる前にロボット部品を壊す可能性がある。
人間はこの問題を、学習をより安全な構造/制御に置き、その難しさを徐々に増すことで解決する。
本稿では,四足歩行ロボットに対する安定歩行学習における同様の支援の効果について述べる。
指導足場に関する心理学的理論に基づき,ロボットに異なる支援設定を提供し,ひずみゲージを用いて評価し,安定なraibertコントローラに対するパラメトリック探索を行うためにベイズ最適化を用いる。
歩行学習において一定支持と徐々に減少する支持の関係を計測するための実験を行い, 徐々に減少する支持は一定高さでの支持よりも安定な歩行を創出できることを示した。
シミュレーションと現実のギャップはロボットに壊滅的な失敗をもたらす可能性があるが、提案手法は新たな行動を学ぶ際のスピードと安全性を組み合わせたものである。
- 全文 参考訳へのリンク
関連論文リスト
- Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Safe Reinforcement Learning for Legged Locomotion [18.57681606310315]
本研究では,ロボットが安全でない状態に入るのを防ぐ安全回復政策と,タスクを完了させるために最適化された学習者ポリシーとを切り替える安全な強化学習フレームワークを提案する。
シミュレーションおよび実四足歩行ロボットを用いた4つの移動作業において,提案手法を検証した。
提案手法は, シミュレーションにおける基準法よりも48.6%減少し, 同等あるいは優れた報奨が得られている。
論文 参考訳(メタデータ) (2022-03-05T01:49:16Z) - A Transferable Legged Mobile Manipulation Framework Based on Disturbance
Predictive Control [15.044159090957292]
四足歩行ロボットにロボットアームを装着した足の移動操作は、ロボットの性能を大幅に向上させる。
本稿では,潜在動的アダプタを用いた強化学習スキームを低レベルコントローラに組み込んだ統合フレームワーク外乱予測制御を提案する。
論文 参考訳(メタデータ) (2022-03-02T14:54:10Z) - Towards Disturbance-Free Visual Mobile Manipulation [11.738161077441104]
本研究では,新しい外乱回避手法を開発し,その中心に外乱予測の補助的課題について述べる。
Manipulathor を用いた実験の結果,新規な物体を用いた実験では,61.7% から85.6% に改善した。
論文 参考訳(メタデータ) (2021-12-17T22:33:23Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Passing Through Narrow Gaps with Deep Reinforcement Learning [2.299414848492227]
本稿では,小さな隙間を自律的に航行する深層強化学習手法を提案する。
我々はまず,ロボットとギャップとの接触が必要な小さなギャップを乗り越えるために,ギャップ行動ポリシーを学習する。
シミュレーション実験では,操作者が手動でギャップ動作を動作させると,93%の成功率が得られる。
実際のロボット実験では、手動アクティベーションで73%、自律的な行動選択で40%の成功率を達成した。
論文 参考訳(メタデータ) (2021-03-06T00:10:41Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments [28.530962677406627]
2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
このリリースには、他の論文で記述されたトレーニング条件をエミュレートするように設計されたopenai-gym互換環境も含まれている。
論文 参考訳(メタデータ) (2020-12-08T12:51:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。