論文の概要: Walk These Ways: Tuning Robot Control for Generalization with
Multiplicity of Behavior
- arxiv url: http://arxiv.org/abs/2212.03238v1
- Date: Tue, 6 Dec 2022 18:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 16:22:58.068225
- Title: Walk These Ways: Tuning Robot Control for Generalization with
Multiplicity of Behavior
- Title(参考訳): 歩き方:行動の多重性を考慮した一般化のための調整ロボット制御
- Authors: Gabriel B Margolis and Pulkit Agrawal
- Abstract要約: 我々は、異なる方法でトレーニングタスクを解決する、ロコモーション戦略の構造化されたファミリーを符号化する単一のポリシーを学ぶ。
異なる戦略が一般化され、新しいタスクや環境に対してリアルタイムで選択できるようになり、時間を要する再トレーニングの必要性を回避できる。
高速で堅牢なオープンソースMoBロコモーションコントローラ、Walk These Waysをリリースし、足の引き込み、姿勢、速度の異なる様々な歩行を実行できる。
- 参考スコア(独自算出の注目度): 12.91132798749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learned locomotion policies can rapidly adapt to diverse environments similar
to those experienced during training but lack a mechanism for fast tuning when
they fail in an out-of-distribution test environment. This necessitates a slow
and iterative cycle of reward and environment redesign to achieve good
performance on a new task. As an alternative, we propose learning a single
policy that encodes a structured family of locomotion strategies that solve
training tasks in different ways, resulting in Multiplicity of Behavior (MoB).
Different strategies generalize differently and can be chosen in real-time for
new tasks or environments, bypassing the need for time-consuming retraining. We
release a fast, robust open-source MoB locomotion controller, Walk These Ways,
that can execute diverse gaits with variable footswing, posture, and speed,
unlocking diverse downstream tasks: crouching, hopping, high-speed running,
stair traversal, bracing against shoves, rhythmic dance, and more. Video and
code release: https://gmargo11.github.io/walk-these-ways/
- Abstract(参考訳): 学習されたロコモーションポリシは、トレーニング中に経験したようなさまざまな環境に迅速に適応するが、分散テスト環境で失敗すると、迅速なチューニングのメカニズムが欠如する。
これは、新しいタスクで良いパフォーマンスを達成するために、ゆっくりと反復的な報酬サイクルと環境再設計を必要とします。
代替案として,学習課題を異なる方法で解決し,行動の多重性(mob)をもたらすロコモーション戦略の構造化ファミリーをエンコードする単一ポリシーの学習を提案する。
異なる戦略は異なる一般化であり、新しいタスクや環境のためにリアルタイムで選択でき、時間のかかるリトレーニングの必要性を回避できる。
我々は、高速で堅牢なオープンソースのMoBロコモーションコントローラ、Walk These Waysをリリースし、さまざまな足引き、姿勢、スピードで様々な歩行を実行し、しゃがみ込み、ホッピング、高速ランニング、階段のトラバース、シューブへのブレーキ、リズムダンスなど、さまざまな下流タスクをアンロックします。
ビデオとコードリリース: https://gmargo11.github.io/walk-these-ways/
関連論文リスト
- Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Legs as Manipulator: Pushing Quadrupedal Agility Beyond Locomotion [34.33972863987201]
我々は四足歩行ロボットを訓練し、前脚を使って壁を登り、ボタンを押し、現実世界でオブジェクトインタラクションを行う。
これらのスキルはカリキュラムを用いてシミュレーションで訓練され,提案したsim2real 変種を用いて実世界へ移行する。
我々は,本手法をシミュレーションと実世界の双方で評価し,短距離および長距離のタスクの実行を成功させたことを示す。
論文 参考訳(メタデータ) (2023-03-20T17:59:58Z) - Robust and Versatile Bipedal Jumping Control through Reinforcement
Learning [141.56016556936865]
この研究は、トルク制御された二足歩行ロボットが実世界で頑丈で多目的なダイナミックジャンプを行えるようにすることで、二足歩行ロボットの機敏さの限界を推し進めることを目的としている。
本稿では,ロボットが様々な場所や方向へジャンプするなど,さまざまなジャンプタスクを達成するための強化学習フレームワークを提案する。
我々は,ロボットの長期入出力(I/O)履歴を符号化し,短期I/O履歴への直接アクセスを可能にする新しいポリシー構造を開発する。
論文 参考訳(メタデータ) (2023-02-19T01:06:09Z) - Advanced Skills by Learning Locomotion and Local Navigation End-to-End [10.872193480485596]
本研究は, 深層強化学習によるエンドツーエンド政策の訓練により, 完全な問題を解決することを提案する。
実際の四足歩行ロボットにおけるポリシーの展開を実演する。
論文 参考訳(メタデータ) (2022-09-26T16:35:00Z) - Reinforcement Learning for Robust Parameterized Locomotion Control of
Bipedal Robots [121.42930679076574]
シミュレーションにおけるロコモーションポリシをトレーニングするためのモデルフリー強化学習フレームワークを提案する。
ドメインランダム化は、システムダイナミクスのバリエーションにまたがる堅牢な振る舞いを学ぶためのポリシーを奨励するために使用されます。
本研究では、目標歩行速度、歩行高さ、旋回ヨーなどの多目的歩行行動について示す。
論文 参考訳(メタデータ) (2021-03-26T07:14:01Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。