論文の概要: Data-Driven Reinforcement Learning for Virtual Character Animation
Control
- arxiv url: http://arxiv.org/abs/2104.06358v1
- Date: Tue, 13 Apr 2021 17:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:22:15.387104
- Title: Data-Driven Reinforcement Learning for Virtual Character Animation
Control
- Title(参考訳): 仮想キャラクタアニメーション制御のためのデータ駆動強化学習
- Authors: Vihanga Gamage, Cathy Ennis, Robert Ross
- Abstract要約: 社会的行動は、世界との物理的相互作用の欠如のために、報酬関数を設計することが困難です。
本稿では,この課題に対処する新しいデータ駆動型ディープRLアプローチであるRLAnimateを提案する。
エージェント,環境,状態,行動といった要素の概念的役割を解明し,エージェントの数学的構造を定式化する。
提案手法を用いて学習したエージェントは,反復的なRL学習プロセスを用いて,多動作を表現するための汎用的アニメーション力学を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual character animation control is a problem for which Reinforcement
Learning (RL) is a viable approach. While current work have applied RL
effectively to portray physics-based skills, social behaviours are challenging
to design reward functions for, due to their lack of physical interaction with
the world. On the other hand, data-driven implementations for these skills have
been limited to supervised learning methods which require extensive training
data and carry constraints on generalisability. In this paper, we propose
RLAnimate, a novel data-driven deep RL approach to address this challenge,
where we combine the strengths of RL together with an ability to learn from a
motion dataset when creating agents. We formalise a mathematical structure for
training agents by refining the conceptual roles of elements such as agents,
environments, states and actions, in a way that leverages attributes of the
character animation domain and model-based RL. An agent trained using our
approach learns versatile animation dynamics to portray multiple behaviours,
using an iterative RL training process, which becomes aware of valid behaviours
via representations learnt from motion capture clips. We demonstrate, by
training agents that portray realistic pointing and waving behaviours, that our
approach requires a significantly lower training time, and substantially fewer
sample episodes to be generated during training relative to state-of-the-art
physics-based RL methods. Also, compared to existing supervised learning-based
animation agents, RLAnimate needs a limited dataset of motion clips to generate
representations of valid behaviours during training.
- Abstract(参考訳): 仮想文字アニメーション制御は強化学習(rl)が有効なアプローチである問題である。
現在の研究は物理学に基づくスキルの表現にRLを効果的に適用しているが、世界との物理的な相互作用が欠如しているため、社会行動は報酬関数を設計することが困難である。
一方で、これらのスキルのためのデータ駆動実装は、広範なトレーニングデータを必要とし、汎用性に制約を持つ教師あり学習方法に限定されている。
本稿では,新しいデータ駆動型深層rlアプローチであるrlanimateを提案し,rlの強みとエージェント作成時のモーションデータセットから学習する能力を組み合わせた。
エージェント,環境,状態,行動といった要素の概念的役割を,キャラクターアニメーション領域とモデルベースRLの属性を活用する方法で補足することで,エージェントの数学的構造を定式化する。
このアプローチで訓練されたエージェントは,複数の動作を再現性のあるアニメーションダイナミクスで表現し,反復的なrlトレーニングプロセスを使用することで,モーションキャプチャクリップから学習した表現を通じて有効な動作を認識する。
我々は,現実的なポインティングや揺動動作を表現したトレーニングエージェントを用いて,本手法ではトレーニング時間を大幅に短縮し,最先端物理に基づくRL法と比較してトレーニング中に発生するサンプルエピソードを著しく少なくすることを示した。
また、既存の教師付き学習ベースのアニメーションエージェントと比較して、RLAnimateはトレーニング中に有効な振る舞いの表現を生成するために、モーションクリップの限られたデータセットを必要とする。
関連論文リスト
- SuperPADL: Scaling Language-Directed Physics-Based Control with Progressive Supervised Distillation [55.47473138423572]
物理ベースのテキスト・トゥ・モーションのためのスケーラブルなフレームワークであるSuperPADLを紹介する。
SuperPADLは、RLと教師あり学習を使って、何千もの多様なモーションクリップでコントローラを訓練する。
コントローラは5000以上のスキルを含むデータセットでトレーニングされ、コンシューマGPU上でリアルタイムに動作します。
論文 参考訳(メタデータ) (2024-07-15T07:07:11Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - Adaptive action supervision in reinforcement learning from real-world
multi-agent demonstrations [10.174009792409928]
マルチエージェントシナリオにおける実世界の実演からRLにおける適応的行動監視手法を提案する。
実験では,未知のソースとターゲット環境の異なるダイナミックスを用いて,チェイス・アンド・エスケープとフットボールのタスクを用いて,本手法がベースラインと比較して一般化能力と一般化能力のバランスを保っていることを示す。
論文 参考訳(メタデータ) (2023-05-22T13:33:37Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - A Survey on Reinforcement Learning Methods in Character Animation [22.3342752080749]
強化学習(Reinforcement Learning)は、エージェントがシーケンシャルな決定をするためにどのようにトレーニングできるかに焦点を当てた機械学習の分野である。
本稿では,現代のDeep Reinforcement Learning法を調査し,キャラクタアニメーションにおける応用の可能性について考察する。
論文 参考訳(メタデータ) (2022-03-07T23:39:00Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z) - Towards Learning to Imitate from a Single Video Demonstration [11.15358253586118]
我々は,映像観察を模倣して学習できる強化学習エージェントを開発した。
我々は、Siameseリカレントニューラルネットワークアーキテクチャを使用して、モーションクリップ間の空間と時間における報酬を学習する。
シミュレーションされたヒューマノイド, 犬, ラプターエージェントを2D, 四足歩行, ヒューマノイドを3Dで示す。
論文 参考訳(メタデータ) (2019-01-22T06:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。