論文の概要: AMO: Adaptive Motion Optimization for Hyper-Dexterous Humanoid Whole-Body Control
- arxiv url: http://arxiv.org/abs/2505.03738v1
- Date: Tue, 06 May 2025 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.511059
- Title: AMO: Adaptive Motion Optimization for Hyper-Dexterous Humanoid Whole-Body Control
- Title(参考訳): AMO:超高次ヒューマノイド全体制御のための適応運動最適化
- Authors: Jialong Li, Xuxin Cheng, Tianshu Huang, Shiqi Yang, Ri-Zhao Qiu, Xiaolong Wang,
- Abstract要約: 本研究では,実時間で適応的な全身制御を実現するために,sim-to-real強化学習とトラジェクトリ最適化を統合したフレームワークを提案する。
AMOの一貫性のある性能は、模倣学習による自律的なタスク実行をサポートすることを示す。
- 参考スコア(独自算出の注目度): 14.403489342466049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humanoid robots derive much of their dexterity from hyper-dexterous whole-body movements, enabling tasks that require a large operational workspace: such as picking objects off the ground. However, achieving these capabilities on real humanoids remains challenging due to their high degrees of freedom (DoF) and nonlinear dynamics. We propose Adaptive Motion Optimization (AMO), a framework that integrates sim-to-real reinforcement learning (RL) with trajectory optimization for real-time, adaptive whole-body control. To mitigate distribution bias in motion imitation RL, we construct a hybrid AMO dataset and train a network capable of robust, on-demand adaptation to potentially O.O.D. commands. We validate AMO in simulation and on a 29-DoF Unitree G1 humanoid robot, demonstrating superior stability and an expanded workspace compared to strong baselines. Finally, we show that AMO's consistent performance supports autonomous task execution via imitation learning, underscoring the system's versatility and robustness.
- Abstract(参考訳): ヒューマノイドロボットは、物体を地面から拾うなどの大きな作業スペースを必要とするタスクを可能にするために、超デキスタラスな全身運動から多くのデキスタリティを導き出す。
しかしながら、実際のヒューマノイド上でこれらの能力を達成することは、その高い自由度(DoF)と非線形力学のため、依然として困難である。
本稿では,RL(sim-to-real reinforcement learning)と軌道最適化を統合した適応運動最適化(Adaptive Motion Optimization, AMO)を提案する。
動作模倣RLにおける分布バイアスを軽減するため、ハイブリッドAMOデータセットを構築し、O.O.D.コマンドへの堅牢でオンデマンドな適応が可能なネットワークを訓練する。
シミュレーションおよび29-DoF ユニツリー G1 ヒューマノイドロボット上での AMO の検証を行った。
最後に、AMOの一貫性のある性能は、模倣学習による自律的なタスク実行をサポートし、システムの汎用性と堅牢性を説明する。
関連論文リスト
- ASAP: Aligning Simulation and Real-World Physics for Learning Agile Humanoid Whole-Body Skills [46.16771391136412]
ASAPは、動的ミスマッチに対処し、アジャイルなヒューマノイド全体のスキルを実現するために設計された2段階のフレームワークである。
第1段階では、リターゲットされた人間の動きデータを用いたシミュレーションにおいて、運動追跡ポリシーを事前訓練する。
第2段階では、現実の世界でポリシーをデプロイし、現実のデータを収集し、デルタ(残留)アクションモデルをトレーニングします。
論文 参考訳(メタデータ) (2025-02-03T08:22:46Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Task and Domain Adaptive Reinforcement Learning for Robot Control [0.34137115855910755]
課題や環境条件に応じて動的にポリシーを適応する新しい適応エージェントを提案する。
このエージェントはIsaacGym上に作られたカスタムで高度に並列化されたシミュレータを使って訓練されている。
実世界において、さまざまな課題を解くために、飛行飛行のためにゼロショット転送を行う。
論文 参考訳(メタデータ) (2024-04-29T14:02:02Z) - Combining model-predictive control and predictive reinforcement learning
for stable quadrupedal robot locomotion [0.0]
モデル予測型と予測型強化型学習コントローラの組み合わせによりこれを実現できるかを検討する。
本研究では,両制御手法を組み合わせて,四足歩行ロボットの安定ゲート生成問題に対処する。
論文 参考訳(メタデータ) (2023-07-15T09:22:37Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。