論文の概要: Learning to Get Up
- arxiv url: http://arxiv.org/abs/2205.00307v1
- Date: Sat, 30 Apr 2022 17:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:32:04.600262
- Title: Learning to Get Up
- Title(参考訳): 立ち上がることを学ぶ
- Authors: Tianxin Tao, Matthew Wilson, Ruiyu Gou, Michiel van de Panne
- Abstract要約: 倒れた状態から立ち上がることは、基本的な人間のスキルです。
このスキルを学ぶための既存の方法は、非常にダイナミックで不安定な持ち上がり動作を生成する。
本研究では, モーションキャプチャーデータに関連性を持たず, 強化学習を用いた段階的アプローチを提案する。
- 参考スコア(独自算出の注目度): 5.887969742827488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Getting up from an arbitrary fallen state is a basic human skill. Existing
methods for learning this skill often generate highly dynamic and erratic
get-up motions, which do not resemble human get-up strategies, or are based on
tracking recorded human get-up motions. In this paper, we present a staged
approach using reinforcement learning, without recourse to motion capture data.
The method first takes advantage of a strong character model, which facilitates
the discovery of solution modes. A second stage then learns to adapt the
control policy to work with progressively weaker versions of the character.
Finally, a third stage learns control policies that can reproduce the weaker
get-up motions at much slower speeds. We show that across multiple runs, the
method can discover a diverse variety of get-up strategies, and execute them at
a variety of speeds. The results usually produce policies that use a final
stand-up strategy that is common to the recovery motions seen from all initial
states. However, we also find policies for which different strategies are seen
for prone and supine initial fallen states. The learned get-up control
strategies often have significant static stability, i.e., they can be paused at
a variety of points during the get-up motion. We further test our method on
novel constrained scenarios, such as having a leg and an arm in a cast.
- Abstract(参考訳): 任意の転倒状態から立ち上がることは、基本的な人間のスキルです。
このスキルを学習するための既存の方法は、人間の持ち上げ戦略と似ていない、あるいは記録された人間の持ち上げ動作に基づいて、非常にダイナミックで不規則な持ち上げ動作を生成することが多い。
本稿では,モーションキャプチャーデータに関連性を持たず,強化学習を用いた段階的なアプローチを提案する。
この手法はまず,解モードの発見を容易にする強力なキャラクタモデルを利用する。
次に、第2段階は、制御ポリシーを徐々に弱いバージョンのキャラクターに適応させることを学ぶ。
最後に、第3段階はより弱い昇降運動をはるかに遅い速度で再現できる制御ポリシーを学ぶ。
提案手法は,複数回にまたがって多種多様なゲーミング戦略を発見し,様々な速度で実行可能であることを示す。
結果は、通常、すべての初期状態から見られる回復運動に共通する最終的なスタンドアップ戦略を使用するポリシーを生成する。
しかし、我々はまた、プロネとスーパインの初期低下状態に対して異なる戦略が見られるポリシーを見つける。
学習したゲットアップ制御戦略は、多くの場合、静的な安定性、すなわち、ゲットアップ動作中にさまざまなポイントで停止することができる。
さらに, 脚と腕をキャストに有するなど, 新たな制約付きシナリオで本手法をテストした。
関連論文リスト
- ViViDex: Learning Vision-based Dexterous Manipulation from Human Videos [81.99559944822752]
我々は人間のビデオから視覚に基づくポリシー学習を改善するためにViViDexを提案する。
最初は強化学習と軌道誘導報酬を使って、各ビデオに対する州ベースのポリシーを訓練する。
次に、州ベースのポリシーから成功したエピソードをロールアウトし、特権情報を使用しずに統一された視覚ポリシーをトレーニングします。
論文 参考訳(メタデータ) (2024-04-24T07:58:28Z) - Strategy Extraction in Single-Agent Games [0.19336815376402716]
本研究では,行動戦略を用いた知識伝達を,人間の認知能力に左右される伝達可能な知識の形式として提案する。
提案手法は,Pacman, Bank Heist, Dungeon-crawling(ダンジョンクローリングゲーム)の3つの環境において有効な戦略を同定できることを示す。
論文 参考訳(メタデータ) (2023-05-22T01:28:59Z) - Robust Imitation of a Few Demonstrations with a Backwards Model [3.8530020696501794]
専門家によるデモンストレーションの行動クローニングは、強化学習よりもよりサンプル効率のよい学習ポリシーを高速化することができる。
実験の周囲のアトラクションの領域を拡大することで、エージェントがオフコースを走行した場合に、実証軌道に戻す方法を学ぶことができるようにすることで、この問題に対処する。
最適あるいは準最適の実証では、学習されたポリシーは、偏差に対して最適かつ堅牢であり、より広いアトラクション領域を持つ。
論文 参考訳(メタデータ) (2022-10-17T18:02:19Z) - Discovering Diverse Athletic Jumping Strategies [8.231687569030898]
本稿では,ハイジャンプなどの運動スキルの多様で自然な運動戦略の発見を可能にする枠組みを提案する。
物理シミュレーションと深層強化学習の組み合わせは、自動制御ポリシートレーニングに適した出発点を提供します。
論文 参考訳(メタデータ) (2021-05-02T01:37:16Z) - Augmenting Policy Learning with Routines Discovered from a Demonstration [86.9307760606403]
日常的な政策学習(RAPL)を提案する。
RAPLは1つのデモから原始的なアクションからなるルーチンを発見する。
RAPLが最先端の模倣学習方法SQILと強化学習方法A2Cを改善することを示した。
論文 参考訳(メタデータ) (2020-12-23T03:15:21Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - State-Only Imitation Learning for Dexterous Manipulation [63.03621861920732]
本稿では,国家のみの模倣学習について考察する。
我々は、逆ダイナミクスモデルをトレーニングし、状態のみのデモンストレーションのアクションを予測するためにそれを使用します。
我々の手法は状態-作用アプローチと同等に動作し、RL単独よりもかなり優れています。
論文 参考訳(メタデータ) (2020-04-07T17:57:20Z) - Human Motion Transfer from Poses in the Wild [61.6016458288803]
人間の動き伝達の問題に対処し、基準映像からの動きを模倣する対象人物のための新しい動き映像を合成する。
推定ポーズを用いて2つのドメインをブリッジするビデオ間翻訳タスクである。
トレーニング中に見つからない線内ポーズシーケンスであっても、時間的に一貫性のある高品質なビデオを生成するための新しいポーズ・ツー・ビデオ翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T05:59:53Z) - Towards Learning to Imitate from a Single Video Demonstration [11.15358253586118]
我々は,映像観察を模倣して学習できる強化学習エージェントを開発した。
我々は、Siameseリカレントニューラルネットワークアーキテクチャを使用して、モーションクリップ間の空間と時間における報酬を学習する。
シミュレーションされたヒューマノイド, 犬, ラプターエージェントを2D, 四足歩行, ヒューマノイドを3Dで示す。
論文 参考訳(メタデータ) (2019-01-22T06:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。