論文の概要: ModSkill: Physical Character Skill Modularization
- arxiv url: http://arxiv.org/abs/2502.14140v1
- Date: Wed, 19 Feb 2025 22:55:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:26:44.172431
- Title: ModSkill: Physical Character Skill Modularization
- Title(参考訳): ModSkill:物理キャラクタスキルのモジュール化
- Authors: Yiming Huang, Zhiyang Dou, Lingjie Liu,
- Abstract要約: 我々は、複雑な全身スキルを独立した身体部品のための構成的でモジュラーなスキルに分解する新しいスキル学習フレームワークModSkillを紹介した。
提案手法は, 生成サンプリングによって強化された, このモジュール化されたスキル学習フレームワークが, 高精度なフルボディモーショントラッキングにおいて, 既存の手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 21.33764810227885
- License:
- Abstract: Human motion is highly diverse and dynamic, posing challenges for imitation learning algorithms that aim to generalize motor skills for controlling simulated characters. Previous methods typically rely on a universal full-body controller for tracking reference motion (tracking-based model) or a unified full-body skill embedding space (skill embedding). However, these approaches often struggle to generalize and scale to larger motion datasets. In this work, we introduce a novel skill learning framework, ModSkill, that decouples complex full-body skills into compositional, modular skills for independent body parts. Our framework features a skill modularization attention layer that processes policy observations into modular skill embeddings that guide low-level controllers for each body part. We also propose an Active Skill Learning approach with Generative Adaptive Sampling, using large motion generation models to adaptively enhance policy learning in challenging tracking scenarios. Our results show that this modularized skill learning framework, enhanced by generative sampling, outperforms existing methods in precise full-body motion tracking and enables reusable skill embeddings for diverse goal-driven tasks.
- Abstract(参考訳): 人間の動きは非常に多様で動的であり、模擬文字を制御するモータースキルを一般化することを目的とした模倣学習アルゴリズムの課題を提起する。
従来の手法は一般的に、参照動作(トラッキングベースモデル)を追跡するための普遍的なフルボディコントローラや、統合されたフルボディスキル埋め込みスペース(スキル埋め込み)に依存していた。
しかしながら、これらのアプローチはより大きな動きデータセットへの一般化とスケールに苦慮することが多い。
本研究では,複雑な全身スキルを,独立した身体部品のための構成的,モジュール的なスキルに分解する,新しいスキル学習フレームワークであるModSkillを紹介する。
我々のフレームワークは、ポリシーの観察を、各ボディ部分の低レベルコントローラをガイドするモジュラースキルの埋め込みに処理する、スキルモジュール化の注意層を特徴としている。
また,大規模動き生成モデルを用いたアクティブスキル学習手法を提案する。
提案手法は, 生成サンプリングによって強化されたこのモジュール化されたスキル学習フレームワークにおいて, 高精度なフルボディモーショントラッキングにおいて既存の手法よりも優れており, 多様な目標駆動タスクに対する再利用可能なスキル埋め込みを可能にする。
関連論文リスト
- Generating Physically Realistic and Directable Human Motions from Multi-Modal Inputs [16.41735119504929]
この研究は、望まれる動きを部分的にしか特定できないマルチモーダル入力から現実的で物理的に人間の行動を生成することに焦点を当てている。
入力は、腕の動きと身体の速度、部分的なキーポイントアニメーション、ビデオに適用されたコンピュータビジョン、さらにはより高いレベルの運動目標を提供するVRコントローラから得られる。
Masked Humanoid Controller (MHC) は,多目的模倣学習を多目的マスク型動作実証に適用する新しい手法である。
論文 参考訳(メタデータ) (2025-02-08T17:02:11Z) - Integrating Controllable Motion Skills from Demonstrations [30.943279225315308]
制御可能スキル統合(CSI)という,フレキシブルなマルチスキル統合フレームワークを導入する。
CSIは、複雑な報酬チューニングを必要とせずに、様々なスタイルのさまざまなモーションスキルを単一のポリシーに統合することを可能にする。
我々の実験は、CSIがより総合的に多様な動きのスキルを柔軟に統合し、異なるスキル間の遷移を促進することを実証した。
論文 参考訳(メタデータ) (2024-08-06T08:01:02Z) - Large Motion Model for Unified Multi-Modal Motion Generation [50.56268006354396]
Large Motion Model (LMM) は、動き中心のマルチモーダルフレームワークであり、メインストリームのモーション生成タスクをジェネラリストモデルに統合する。
LMMは3つの原則的な側面からこれらの課題に取り組む。
論文 参考訳(メタデータ) (2024-04-01T17:55:11Z) - Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - Learning compositional models of robot skills for task and motion
planning [39.36562555272779]
センサモレータプリミティブを用いて複雑な長距離操作問題を解決することを学ぶ。
能動的学習とサンプリングに最先端の手法を用いる。
我々は,選択した原始行動の質を計測することで,シミュレーションと実世界の双方でアプローチを評価する。
論文 参考訳(メタデータ) (2020-06-08T20:45:34Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z) - Learning Whole-body Motor Skills for Humanoids [25.443880385966114]
本稿では,多種多様なプッシュリカバリとバランス行動のための運動スキルを習得するDeep Reinforcement Learningの階層的枠組みを提案する。
この方針は、ロボットモデルの現実的な設定と、学習したスキルを実際のロボットに簡単に伝達できる低レベルのインピーダンス制御を備えた物理シミュレーターで訓練されている。
論文 参考訳(メタデータ) (2020-02-07T19:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。