論文の概要: Learning Dual-Arm Coordination for Grasping Large Flat Objects
- arxiv url: http://arxiv.org/abs/2504.03500v1
- Date: Fri, 04 Apr 2025 14:55:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:47:15.935642
- Title: Learning Dual-Arm Coordination for Grasping Large Flat Objects
- Title(参考訳): 大型平板物体の2次元座標の学習
- Authors: Yongliang Wang, Hamidreza Kasaei,
- Abstract要約: モデルフリーの深部強化学習フレームワークを提案する。
CNNをベースとしたアクター・クリティカル層を共有化したPPOアルゴリズムを用いて,協調型デュアルアームグリップ動作の学習を行う。
実験結果から,我々の政策は新たな操作を必要とせずに,大きな平らな物体を効果的に把握できることが示されている。
- 参考スコア(独自算出の注目度): 14.847692568611087
- License:
- Abstract: Grasping large flat objects, such as books or keyboards lying horizontally, presents significant challenges for single-arm robotic systems, often requiring extra actions like pushing objects against walls or moving them to the edge of a surface to facilitate grasping. In contrast, dual-arm manipulation, inspired by human dexterity, offers a more refined solution by directly coordinating both arms to lift and grasp the object without the need for complex repositioning. In this paper, we propose a model-free deep reinforcement learning (DRL) framework to enable dual-arm coordination for grasping large flat objects. We utilize a large-scale grasp pose detection model as a backbone to extract high-dimensional features from input images, which are then used as the state representation in a reinforcement learning (RL) model. A CNN-based Proximal Policy Optimization (PPO) algorithm with shared Actor-Critic layers is employed to learn coordinated dual-arm grasp actions. The system is trained and tested in Isaac Gym and deployed to real robots. Experimental results demonstrate that our policy can effectively grasp large flat objects without requiring additional maneuvers. Furthermore, the policy exhibits strong generalization capabilities, successfully handling unseen objects. Importantly, it can be directly transferred to real robots without fine-tuning, consistently outperforming baseline methods.
- Abstract(参考訳): 水平方向に横たわる本やキーボードのような大きな平らな物体をグラッピングすることは、シングルアームロボットシステムにとって重要な課題であり、しばしば、物体を壁に押し付けたり、つかみやすいように表面の端に移動したりするといった余分な行動を必要とする。
対照的に、人間の器用さにインスパイアされたデュアルアーム操作は、複雑な再配置を必要とせずに、両腕を直接調整して持ち上げ、つかむことで、より洗練されたソリューションを提供する。
本稿では,モデルフリーの深部強化学習(DRL)フレームワークを提案する。
本稿では,大規模グリップポーズ検出モデルをバックボーンとして用いて,入力画像から高次元特徴を抽出し,強化学習(RL)モデルにおける状態表現として利用する。
CNNをベースとしたアクター・クリティカル層を共有化したPPOアルゴリズムを用いて,協調型デュアルアームグリップ動作の学習を行う。
このシステムはIsaac Gymで訓練され、テストされ、本物のロボットにデプロイされる。
実験結果から,我々の政策は新たな操作を必要とせずに,大きな平らな物体を効果的に把握できることが示されている。
さらに、ポリシーは強力な一般化能力を示し、目に見えないオブジェクトの処理に成功している。
重要なことは、細調整をせずに実際のロボットに直接転送することができ、一貫してベースライン法より優れています。
関連論文リスト
- Dynamic object goal pushing with mobile manipulators through model-free constrained reinforcement learning [9.305146484955296]
我々は,未知の物体を所望の位置に移動させ,一連のプッシュ動作によって方向を判断する,移動マニピュレータのための学習型コントローラを開発した。
ロボットアームと移動体ベースモーションのコントローラは,制約付き強化学習(RL)の定式化を用いて訓練される。
学習されたポリシーは、シミュレーションで91.35%、挑戦的なシナリオでハードウェアで80%の成功率を達成する。
論文 参考訳(メタデータ) (2025-02-03T17:28:35Z) - CORN: Contact-based Object Representation for Nonprehensile Manipulation of General Unseen Objects [1.3299507495084417]
非包括的操作は、野生ではあまりに薄く、大きく、または、そうでなければ不快な物体を操作するために不可欠である。
そこで本研究では,接触型オブジェクト表現と事前学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-16T01:47:53Z) - Twisting Lids Off with Two Hands [82.21668778600414]
シミュレーションで訓練された政策を実世界へ効果的かつ効率的に移行する方法を示す。
具体的には,ボトル状物体の蓋を両手でねじる問題について考察する。
これは、バイマガル・マルチフィンガーハンドでそのような機能を実現する最初のsim-to-real RLシステムである。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Learning to Centralize Dual-Arm Assembly [0.6091702876917281]
この研究は、デュアルアームペグ・イン・ホール操作のためのフレームワークを提供することで、ヒューマノイドロボットの組み立てに焦点を当てている。
スパース報酬のみを用いることで、モデリングの労力を最小限に抑える。
両腕ペグインホールにおけるフレームワークの有効性を実証し、異なるアクション空間におけるサンプル効率と成功率を解析した。
論文 参考訳(メタデータ) (2021-10-08T09:59:12Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。