論文の概要: Learning to Brachiate via Simplified Model Imitation
- arxiv url: http://arxiv.org/abs/2205.03943v1
- Date: Sun, 8 May 2022 19:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 18:10:13.219671
- Title: Learning to Brachiate via Simplified Model Imitation
- Title(参考訳): 簡易モデル模倣によるブラキエートへの学習
- Authors: Daniele Reda and Hung Yu Ling and Michiel van de Panne
- Abstract要約: 腕章は、ギボンやシアマングの主要な移動形態である。
本稿では,この問題に対する強化学習を用いた新しいアプローチを提案し,指のない14リンク平面モデルで実証した。
- 参考スコア(独自算出の注目度): 8.45741521008321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brachiation is the primary form of locomotion for gibbons and siamangs, in
which these primates swing from tree limb to tree limb using only their arms.
It is challenging to control because of the limited control authority, the
required advance planning, and the precision of the required grasps. We present
a novel approach to this problem using reinforcement learning, and as
demonstrated on a finger-less 14-link planar model that learns to brachiate
across challenging handhold sequences. Key to our method is the use of a
simplified model, a point mass with a virtual arm, for which we first learn a
policy that can brachiate across handhold sequences with a prescribed order.
This facilitates the learning of the policy for the full model, for which it
provides guidance by providing an overall center-of-mass trajectory to imitate,
as well as for the timing of the holds. Lastly, the simplified model can also
readily be used for planning suitable sequences of handholds in a given
environment. Our results demonstrate brachiation motions with a variety of
durations for the flight and hold phases, as well as emergent extra
back-and-forth swings when this proves useful. The system is evaluated with a
variety of ablations. The method enables future work towards more general 3D
brachiation, as well as using simplified model imitation in other settings.
- Abstract(参考訳): ブラキエーションはギボンズやシャマングの移動の主要な形態であり、これらの霊長類は腕だけを使って木の手足から木の手足へと揺れる。
制御権限の制限、必要な事前計画、必要な把握の正確さのため、制御は困難である。
本稿では,この問題に対する強化学習を用いた新しいアプローチを提案するとともに,指のない14リンク平面モデルを用いて,難易度のあるハンドホールドシーケンスのブラキレートを学習する。
提案手法の鍵となるのは,仮想アームを用いた簡易モデルである点質量を用いて,ハンドホールド列を所定の順序で分岐可能なポリシをまず学習することである。
これにより、完全なモデルに対するポリシーの学習が容易になり、それは、全体の質量の軌跡を模倣すると同時に、保持のタイミングも提供することでガイダンスを提供する。
最後に、単純化されたモデルは、与えられた環境で適切なハンドホールドのシーケンスを計画するのにも容易に使用できる。
以上の結果から, 飛行と保持の期間が多岐にわたるブラキエーション動作と, 有効性が証明された場合の創発的なバック・アンド・フォアスイングが示される。
システムは様々なアブレーションで評価される。
この方法は、より一般的な3dブラキエーションへの将来の取り組みを可能にするとともに、他の設定で単純化されたモデル模倣を利用することができる。
関連論文リスト
- ArtiGrasp: Physically Plausible Synthesis of Bi-Manual Dexterous
Grasping and Articulation [29.999224233718927]
ArtiGraspは、握りと調音を含む双方向の手-物体の相互作用を合成する方法である。
我々のフレームワークは、単一の手ポーズ参照によってガイドされた単一のポリシー内での把握と明瞭化を統一する。
提案手法は,市販画像ベース回帰器からノイズの多い手動ポーズ推定を行うことができることを示す。
論文 参考訳(メタデータ) (2023-09-07T17:53:20Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - An Adaptable Approach to Learn Realistic Legged Locomotion without
Examples [38.81854337592694]
本研究は,バネ装荷逆振り子モデルを用いて学習プロセスを導くことで,移動における現実性を保証するための汎用的アプローチを提案する。
モデルのない設定であっても、2足歩行ロボットと4足歩行ロボットに対して、学習したポリシーが現実的でエネルギー効率のよい移動歩行を生成できることを示す実験結果を示す。
論文 参考訳(メタデータ) (2021-10-28T10:14:47Z) - Model-Based Reinforcement Learning via Latent-Space Collocation [110.04005442935828]
我々は、行動だけでなく、状態の順序を計画することで、長期的タスクの解決がより容易であると主張する。
我々は、学習された潜在状態空間モデルを利用して、画像に基づく設定に最適な制御文献における長い水平タスクに対する良い結果を示すコロケーションの概念を適応させる。
論文 参考訳(メタデータ) (2021-06-24T17:59:18Z) - Adversarial Motion Modelling helps Semi-supervised Hand Pose Estimation [116.07661813869196]
そこで本稿では,非ラベルビデオに対人トレーニングとモーションモデリングのアイデアを組み合わせることを提案する。
本研究は,非ラベル映像系列の半教師あり学習により,逆方向が手ポーズ推定器の特性の向上につながることを示す。
このアプローチの主な利点は、ペアのトレーニングデータよりもはるかに容易に、未ペアのビデオとジョイントシーケンスデータを利用することができることです。
論文 参考訳(メタデータ) (2021-06-10T17:50:19Z) - Reinforcement Learning Control of a Biomechanical Model of the Upper
Extremity [0.0]
我々は、強化学習で実施されるモータバブリング手法を用いて制御ポリシーを学習する。
我々は7つの運動自由度を含む最先端のバイオメカニカルモデルを用いている。
次元の呪いに対処するために、個々の筋肉の代わりに各自由度で作用する簡易な2階筋モデルを用いる。
論文 参考訳(メタデータ) (2020-11-13T19:49:29Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Movement Pruning: Adaptive Sparsity by Fine-Tuning [115.91907953454034]
マグニチュードプルーニング(Magnitude pruning)は、純粋教師付き学習におけるモデルサイズの削減に広く用いられている戦略である。
本稿では,単純な一階重み決定法であるムーブメント・プルーニング(Motion pruning)を提案する。
実験により、大きな事前訓練された言語モデルでプルーニングを行うと、運動プルーニングは高分離性体制において顕著な改善を示すことが示された。
論文 参考訳(メタデータ) (2020-05-15T17:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。