論文の概要: GraspARL: Dynamic Grasping via Adversarial Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2203.02119v1
- Date: Fri, 4 Mar 2022 03:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:48:30.149492
- Title: GraspARL: Dynamic Grasping via Adversarial Reinforcement Learning
- Title(参考訳): GraspARL: 逆強化学習による動的グラスピング
- Authors: Tianhao Wu, Fangwei Zhong, Yiran Geng, Hongchen Wang, Yongjian Zhu,
Yizhou Wang, Hao Dong
- Abstract要約: 動的把握のための逆強化学習フレームワーク,すなわちGraspARLを導入する。
本研究では,ロボットが移動体上の物体を拾い上げ,対向移動体が逃走経路を見つける「移動・放浪」ゲームとして動的把握問題を定式化する。
このようにして、運動器はトレーニング中に様々な移動軌跡を自動生成することができる。また、対向軌道で訓練されたロボットは、様々な動きパターンに一般化することができる。
- 参考スコア(独自算出の注目度): 16.03016392075486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping moving objects, such as goods on a belt or living animals, is an
important but challenging task in robotics. Conventional approaches rely on a
set of manually defined object motion patterns for training, resulting in poor
generalization to unseen object trajectories. In this work, we introduce an
adversarial reinforcement learning framework for dynamic grasping, namely
GraspARL. To be specific. we formulate the dynamic grasping problem as a
'move-and-grasp' game, where the robot is to pick up the object on the mover
and the adversarial mover is to find a path to escape it. Hence, the two agents
play a min-max game and are trained by reinforcement learning. In this way, the
mover can auto-generate diverse moving trajectories while training. And the
robot trained with the adversarial trajectories can generalize to various
motion patterns. Empirical results on the simulator and real-world scenario
demonstrate the effectiveness of each and good generalization of our method.
- Abstract(参考訳): ベルト上の物や生きた動物などの移動物体をグラッピングすることは、ロボット工学において重要であるが難しい課題である。
従来のアプローチでは、トレーニングのために手動で定義されたオブジェクトの動きパターンのセットに依存しており、その結果、見えないオブジェクトの軌跡への一般化が不十分である。
本研究では,動的把握のための逆強化学習フレームワーク,すなわちGraspARLを提案する。
具体的に言うと
ロボットが移動体の物体を拾い上げ、敵の移動者が逃げ出す道を見つけるという「モブ・アンド・グレイプ」ゲームとして動的把持問題を定式化する。
したがって、2人のエージェントはミニマックスゲームをプレイし、強化学習によって訓練される。
これにより、トレーニング中に様々な移動軌道を自動生成することができる。
また、対向軌道で訓練されたロボットは、様々な動きパターンに一般化することができる。
シミュレータと実世界のシナリオにおける実験結果から,各手法の有効性が実証された。
関連論文リスト
- DexDribbler: Learning Dexterous Soccer Manipulation via Dynamic Supervision [26.9579556496875]
移動物体の協調操作と,サッカーなどの足による移動は,学習コミュニティにおいて目立たない注目を集める。
出力をダイナミックな関節レベル移動監視として使用し,必要な身体レベルの動きを正確に計算するフィードバック制御ブロックを提案する。
我々は,我々の学習手法が政策ネットワークをより早く収束させるだけでなく,サッカーロボットが高度な操作を行うことを可能にすることを観察した。
論文 参考訳(メタデータ) (2024-03-21T11:16:28Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Automatic Acquisition of a Repertoire of Diverse Grasping Trajectories
through Behavior Shaping and Novelty Search [0.0]
この問題を解決するために,多様な把握動作を生成する手法を提案する。
運動は、特定の対象位置に対するシミュレーションで生成される。
生成した動きが実際のバクスターロボットで実際に動作することを示すが、目的は、この手法を用いて大規模なデータセットを作成し、ディープラーニング手法をブートストラップすることである。
論文 参考訳(メタデータ) (2022-05-17T09:17:31Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Hierarchical Reinforcement Learning of Locomotion Policies in Response
to Approaching Objects: A Preliminary Study [11.919315372249802]
深層強化学習により、ヒューマノイドロボットのような複雑な運動系がA点からB点に移動できるようになった。
自然界における動物の自然反応の観察にインスパイアされた私たちは、ロボットの移動におけるこの進歩を拡大したいと考えています。
ロボットがボールにぶつかることを避けるため,MuJoCo内にシミュレーション環境を構築した。
論文 参考訳(メタデータ) (2022-03-20T18:24:18Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。