論文の概要: I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2405.08726v1
- Date: Tue, 14 May 2024 16:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 13:28:19.853929
- Title: I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning
- Title(参考訳): I-CTRL:制約強化学習によるヒューマノイドロボットの制御
- Authors: Yashuai Yan, Esteve Valls Mascaro, Tobias Egle, Dongheui Lee,
- Abstract要約: 本研究では,ヒューマノイドロボット上での物理に基づく高品質な動作模倣を実現するために,制約付き強化学習アルゴリズムを提案する。
我々のフレームワークは4つのロボットにまたがる、シンプルでユニークな報酬によって、動きの模倣に優れています。
- 参考スコア(独自算出の注目度): 8.97654258232601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the critical need for refining robot motions that, despite achieving a high visual similarity through human-to-humanoid retargeting methods, fall short of practical execution in the physical realm. Existing techniques in the graphics community often prioritize visual fidelity over physics-based feasibility, posing a significant challenge for deploying bipedal systems in practical applications. Our research introduces a constrained reinforcement learning algorithm to produce physics-based high-quality motion imitation onto legged humanoid robots that enhance motion resemblance while successfully following the reference human trajectory. We name our framework: I-CTRL. By reformulating the motion imitation problem as a constrained refinement over non-physics-based retargeted motions, our framework excels in motion imitation with simple and unique rewards that generalize across four robots. Moreover, our framework can follow large-scale motion datasets with a unique RL agent. The proposed approach signifies a crucial step forward in advancing the control of bipedal robots, emphasizing the importance of aligning visual and physical realism for successful motion imitation.
- Abstract(参考訳): 本稿では,人間から人間へのリターゲティング手法によって視覚的類似性が高いにもかかわらず,身体領域における現実的な実行に欠けるロボット動作の精細化の必要性について論じる。
グラフィックコミュニティの既存の技術は、物理ベースの実現可能性よりも視覚的忠実さを優先することが多く、実践的なアプリケーションに二足歩行システムを展開する上で大きな課題となっている。
本研究は,人間軌道の追従に成功しながら,運動類似性を高めた脚付きヒューマノイドロボットに対して,物理に基づく高品質な動作模倣を実現するための拘束強化学習アルゴリズムを提案する。
フレームワークをI-CTRLと名付けます。
運動模倣問題を、非物理学に基づく再ターゲット運動に対する制約付き洗練として再構成することにより、4つのロボットにまたがる単純で独特な報酬で、運動模倣に優れる。
さらに,我々のフレームワークは,RLエージェントを用いた大規模動作データセットを追従することができる。
提案手法は,2足歩行ロボットの制御を前進させる上で重要なステップであり,視覚的および身体的リアリズムを協調させることの重要性を強調している。
関連論文リスト
- ExBody2: Advanced Expressive Humanoid Whole-Body Control [16.69009772546575]
動作を模倣するヒューマノイドを制御できる全身追跡フレームワークであるExBody2を提案する。
モデルは強化学習(Reinforcement Learning)を用いてシミュレーションでトレーニングされ、その後現実世界に移行する。
2つのヒューマノイドプラットフォーム上で実験を行い、最先端技術に対するアプローチの優位性を実証する。
論文 参考訳(メタデータ) (2024-12-17T18:59:51Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Real-Time Dynamic Robot-Assisted Hand-Object Interaction via Motion Primitives [45.256762954338704]
本稿では,動的ロボット支援ハンドオブジェクトインタラクションに着目した物理HRIの強化手法を提案する。
我々はトランスフォーマーに基づくアルゴリズムを用いて、1枚のRGB画像から人間の手の動きをリアルタイムに3Dモデリングする。
ロボットのアクション実装は、継続的に更新された3Dハンドモデルを使用して動的に微調整される。
論文 参考訳(メタデータ) (2024-05-29T21:20:16Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - DROP: Dynamics Responses from Human Motion Prior and Projective Dynamics [21.00283279991885]
DROPは、生成的mOtionと射影力学を用いた人間のダイナミクス応答をモデリングするための新しいフレームワークである。
様々な動作タスクや様々な物理的摂動にまたがってモデルを広範囲に評価し、応答のスケーラビリティと多様性を実証する。
論文 参考訳(メタデータ) (2023-09-24T20:25:59Z) - Human-Robot Skill Transfer with Enhanced Compliance via Dynamic Movement
Primitives [1.7901837062462316]
本研究では,動的運動プリミティブ(Dynamic Movement Primitives)フレームワークにおいて,人間の実演から動的特徴を抽出し,パラメータを自動チューニングする体系的手法を提案する。
本手法は,LfDとRLの両方に追従するロボット軌道を再現するために,人間の動的特徴を抽出するための実際のロボット装置に実装した。
論文 参考訳(メタデータ) (2023-04-12T08:48:28Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。