論文の概要: GraspARL: Dynamic Grasping via Adversarial Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2203.02119v1
- Date: Fri, 4 Mar 2022 03:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:48:30.149492
- Title: GraspARL: Dynamic Grasping via Adversarial Reinforcement Learning
- Title(参考訳): GraspARL: 逆強化学習による動的グラスピング
- Authors: Tianhao Wu, Fangwei Zhong, Yiran Geng, Hongchen Wang, Yongjian Zhu,
Yizhou Wang, Hao Dong
- Abstract要約: 動的把握のための逆強化学習フレームワーク,すなわちGraspARLを導入する。
本研究では,ロボットが移動体上の物体を拾い上げ,対向移動体が逃走経路を見つける「移動・放浪」ゲームとして動的把握問題を定式化する。
このようにして、運動器はトレーニング中に様々な移動軌跡を自動生成することができる。また、対向軌道で訓練されたロボットは、様々な動きパターンに一般化することができる。
- 参考スコア(独自算出の注目度): 16.03016392075486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping moving objects, such as goods on a belt or living animals, is an
important but challenging task in robotics. Conventional approaches rely on a
set of manually defined object motion patterns for training, resulting in poor
generalization to unseen object trajectories. In this work, we introduce an
adversarial reinforcement learning framework for dynamic grasping, namely
GraspARL. To be specific. we formulate the dynamic grasping problem as a
'move-and-grasp' game, where the robot is to pick up the object on the mover
and the adversarial mover is to find a path to escape it. Hence, the two agents
play a min-max game and are trained by reinforcement learning. In this way, the
mover can auto-generate diverse moving trajectories while training. And the
robot trained with the adversarial trajectories can generalize to various
motion patterns. Empirical results on the simulator and real-world scenario
demonstrate the effectiveness of each and good generalization of our method.
- Abstract(参考訳): ベルト上の物や生きた動物などの移動物体をグラッピングすることは、ロボット工学において重要であるが難しい課題である。
従来のアプローチでは、トレーニングのために手動で定義されたオブジェクトの動きパターンのセットに依存しており、その結果、見えないオブジェクトの軌跡への一般化が不十分である。
本研究では,動的把握のための逆強化学習フレームワーク,すなわちGraspARLを提案する。
具体的に言うと
ロボットが移動体の物体を拾い上げ、敵の移動者が逃げ出す道を見つけるという「モブ・アンド・グレイプ」ゲームとして動的把持問題を定式化する。
したがって、2人のエージェントはミニマックスゲームをプレイし、強化学習によって訓練される。
これにより、トレーニング中に様々な移動軌道を自動生成することができる。
また、対向軌道で訓練されたロボットは、様々な動きパターンに一般化することができる。
シミュレータと実世界のシナリオにおける実験結果から,各手法の有効性が実証された。
関連論文リスト
- Bridging the Sim-to-Real Gap for Athletic Loco-Manipulation [18.451995260533682]
我々は、複雑なアクチュエーター機構のためのsim-to-realギャップをブリッジするためにUnsupervised Actuator Net (UAN)を導入する。
UANは、学習した振る舞いが堅牢で、転送可能であることを保証することで、報酬のハッキングを緩和する。
これらのイノベーションによって、ロボットアスリートは、シミュレーションから現実への顕著な忠実さで持ち上げ、投げ、ドラッグすることを学びました。
論文 参考訳(メタデータ) (2025-02-15T20:18:37Z) - Dynamic object goal pushing with mobile manipulators through model-free constrained reinforcement learning [9.305146484955296]
我々は,未知の物体を所望の位置に移動させ,一連のプッシュ動作によって方向を判断する,移動マニピュレータのための学習型コントローラを開発した。
ロボットアームと移動体ベースモーションのコントローラは,制約付き強化学習(RL)の定式化を用いて訓練される。
学習されたポリシーは、シミュレーションで91.35%、挑戦的なシナリオでハードウェアで80%の成功率を達成する。
論文 参考訳(メタデータ) (2025-02-03T17:28:35Z) - Moto: Latent Motion Token as the Bridging Language for Robot Manipulation [66.18557528695924]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - DexDribbler: Learning Dexterous Soccer Manipulation via Dynamic Supervision [26.9579556496875]
移動物体の協調操作と,サッカーなどの足による移動は,学習コミュニティにおいて目立たない注目を集める。
出力をダイナミックな関節レベル移動監視として使用し,必要な身体レベルの動きを正確に計算するフィードバック制御ブロックを提案する。
我々は,我々の学習手法が政策ネットワークをより早く収束させるだけでなく,サッカーロボットが高度な操作を行うことを可能にすることを観察した。
論文 参考訳(メタデータ) (2024-03-21T11:16:28Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。