論文の概要: Integrating Learning-Based Manipulation and Physics-Based Locomotion for Whole-Body Badminton Robot Control
- arxiv url: http://arxiv.org/abs/2504.17771v2
- Date: Sun, 27 Apr 2025 14:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.486746
- Title: Integrating Learning-Based Manipulation and Physics-Based Locomotion for Whole-Body Badminton Robot Control
- Title(参考訳): 全体バドミントンロボット制御のための学習ベースマニピュレーションと物理ベースロコモーションの統合
- Authors: Haochen Wang, Zhiwei Shi, Chengxi Zhu, Yafei Qiao, Cheng Zhang, Fan Yang, Pengjie Ren, Lan Lu, Dong Xuan,
- Abstract要約: Hamletはアジャイルバドミントンロボットのための新しいハイブリッドコントロールシステムである。
腕のポリシーの基盤となるシャシー・ロコモーションのためのモデルに基づく戦略を導入する。
本研究では, 自律型バドミントンロボットにおいて, サーブマシンに対して94.5%の成功率, 人間の選手に対して90.7%の成功率を示す。
- 参考スコア(独自算出の注目度): 21.459534451842128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based methods, such as imitation learning (IL) and reinforcement learning (RL), can produce excel control policies over challenging agile robot tasks, such as sports robot. However, no existing work has harmonized learning-based policy with model-based methods to reduce training complexity and ensure the safety and stability for agile badminton robot control. In this paper, we introduce Hamlet, a novel hybrid control system for agile badminton robots. Specifically, we propose a model-based strategy for chassis locomotion which provides a base for arm policy. We introduce a physics-informed "IL+RL" training framework for learning-based arm policy. In this train framework, a model-based strategy with privileged information is used to guide arm policy training during both IL and RL phases. In addition, we train the critic model during IL phase to alleviate the performance drop issue when transitioning from IL to RL. We present results on our self-engineered badminton robot, achieving 94.5% success rate against the serving machine and 90.7% success rate against human players. Our system can be easily generalized to other agile mobile manipulation tasks such as agile catching and table tennis. Our project website: https://dreamstarring.github.io/HAMLET/.
- Abstract(参考訳): 模倣学習(IL)や強化学習(RL)のような学習ベースの手法は、スポーツロボットのようなアジャイルロボットの課題に対して、排他的な制御ポリシーを生成することができる。
しかしながら、トレーニングの複雑さを減らし、アジャイルバドミントンロボット制御の安全性と安定性を確保するために、モデルベースの手法と学習ベースのポリシーを調和させたものは存在しない。
本稿では,アジャイルバドミントンロボットのための新しいハイブリッド制御システムであるハムレットを紹介する。
具体的には、腕のポリシーの基盤となるシャシー移動のモデルに基づく戦略を提案する。
物理インフォームされた「IL+RL」トレーニングフレームワークを学習型アームポリシーに導入する。
このトレイン・フレームワークでは、特権情報を備えたモデルベースの戦略を用いて、ILおよびRLフェーズ間のアームポリシートレーニングをガイドする。
さらに,IL フェーズにおいて,IL から RL への移行時の性能低下問題を軽減するために,批評家モデルを訓練する。
本研究では, 自律型バドミントンロボットにおいて, サーブマシンに対して94.5%の成功率, 人間の選手に対して90.7%の成功率を示す。
私たちのシステムは、アジャイルキャッチや卓球といった他のアジャイルモバイル操作タスクに簡単に一般化できます。
プロジェクトのWebサイト: https://dreamstarring.github.io/HAMLET/。
関連論文リスト
- Gait in Eight: Efficient On-Robot Learning for Omnidirectional Quadruped Locomotion [13.314871831095882]
On-robot Reinforcement Learning(オンロボット強化学習)は、脚のあるロボットの体格認識ポリシーを訓練するための有望なアプローチである。
実時間トレーニングのわずか8分で,四足歩行を効率よく学習する枠組みを提案する。
屋内と屋外の異なる環境におけるアプローチの堅牢性を示す。
論文 参考訳(メタデータ) (2025-03-11T12:32:06Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Reinforcement Learning with Foundation Priors: Let the Embodied Agent Efficiently Learn on Its Own [59.11934130045106]
我々は、政策、価値、成功-回帰基盤モデルからのガイダンスとフィードバックを活用するために、RLFP(Reinforcement Learning with Foundation Priors)を提案する。
本フレームワークでは,自動報酬関数を用いてより効率的にエージェントを探索できるファウンデーション誘導型アクター・クリティカル(FAC)アルゴリズムを導入する。
本手法は,実ロボットとシミュレーションの両方において,様々な操作タスクにおいて顕著な性能を実現する。
論文 参考訳(メタデータ) (2023-10-04T07:56:42Z) - Learning Agile Soccer Skills for a Bipedal Robot with Deep Reinforcement Learning [26.13655448415553]
Deep Reinforcement Learning (Deep RL)は、低コストでミニチュアなヒューマノイドロボットのための洗練された安全な運動スキルを合成することができる。
我々はDeep RLを使って、20個の関節を持つヒューマノイドロボットを訓練し、1対1(1v1)のサッカーゲームを単純化した。
結果として得られるエージェントは、急激な転倒回復、歩行、回転、蹴りなど、堅牢でダイナミックな動きのスキルを示す。
論文 参考訳(メタデータ) (2023-04-26T16:25:54Z) - Hierarchical Reinforcement Learning for Precise Soccer Shooting Skills
using a Quadrupedal Robot [76.04391023228081]
本研究では,四足歩行ロボットが実世界において,強化学習を用いて精度の高い射撃技術を実現できるという課題に対処する。
本研究では, 深層強化学習を活用して頑健な動作制御政策を訓練する階層的枠組みを提案する。
提案するフレームワークをA1四足歩行ロボットに展開し、実世界のランダムなターゲットに向けて正確にボールを発射できるようにする。
論文 参考訳(メタデータ) (2022-08-01T22:34:51Z) - Learning Agile Locomotion via Adversarial Training [59.03007947334165]
本稿では,四足歩行ロボット(主人公)が他のロボット(敵)を追いかけるのを学習し,後者が逃げることを学習するマルチエージェント学習システムを提案する。
この敵対的なトレーニングプロセスは、アジャイルの振る舞いを促進するだけでなく、退屈な環境設計の努力を効果的に軽減します。
1つの敵のみを使用した以前の作品とは対照的に、異なる逃走戦略を専門とする敵のアンサンブルを訓練することは、主人公がアジリティを習得するために不可欠である。
論文 参考訳(メタデータ) (2020-08-03T01:20:37Z) - Learning to Play Table Tennis From Scratch using Muscular Robots [34.34824536814943]
この研究は、(a)人為的ロボットアームを用いた安全クリティカルな動的タスクを初めて学習し、(b)PAM駆動システムで精度の高い要求問題を学び、(c)本物のボールなしで卓球をするようにロボットを訓練する。
ビデオとデータセットは muscleTT.embodied.ml で入手できる。
論文 参考訳(メタデータ) (2020-06-10T16:43:27Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z) - Deep Adversarial Reinforcement Learning for Object Disentangling [36.66974848126079]
本稿では, 廃棄物の密接化を図り, 対人強化学習(ARL)フレームワークを提案する。
ARLフレームワークは、元のエージェントであるプロタゴニストを挑戦する状態に操るために訓練された敵を利用する。
本手法は,ロボット制御のためのエンドツーエンドシステムを用いて,難易度の高い物体分離タスクを学習することにより,シナリオの学習からテストまでを一般化できることを示す。
論文 参考訳(メタデータ) (2020-03-08T13:20:39Z) - Learning to Walk in the Real World with Minimal Human Effort [80.7342153519654]
我々は,人間の努力を最小限に抑えて,現実世界の深いRLを用いた足の移動ポリシーを学習するシステムを開発した。
人間の介入がほとんどないミニチュアロボットにおいて,ロボットの移動スキルを自動的かつ効率的に学習することができる。
論文 参考訳(メタデータ) (2020-02-20T03:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。