論文の概要: Efficient Representations of Object Geometry for Reinforcement Learning
of Interactive Grasping Policies
- arxiv url: http://arxiv.org/abs/2211.10957v1
- Date: Sun, 20 Nov 2022 11:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:03:19.354839
- Title: Efficient Representations of Object Geometry for Reinforcement Learning
of Interactive Grasping Policies
- Title(参考訳): 対話的把持方針の強化学習のためのオブジェクト幾何の効率的な表現
- Authors: Malte Mosbach, Sven Behnke
- Abstract要約: 本稿では,様々な幾何学的に異なる実世界の物体の対話的把握を学習する強化学習フレームワークを提案する。
学習したインタラクティブなポリシーのビデオはhttps://maltemosbach.org/io/geometry_aware_grasping_policiesで公開されている。
- 参考スコア(独自算出の注目度): 29.998917158604694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping objects of different shapes and sizes - a foundational, effortless
skill for humans - remains a challenging task in robotics. Although model-based
approaches can predict stable grasp configurations for known object models,
they struggle to generalize to novel objects and often operate in a
non-interactive open-loop manner. In this work, we present a reinforcement
learning framework that learns the interactive grasping of various
geometrically distinct real-world objects by continuously controlling an
anthropomorphic robotic hand. We explore several explicit representations of
object geometry as input to the policy. Moreover, we propose to inform the
policy implicitly through signed distances and show that this is naturally
suited to guide the search through a shaped reward component. Finally, we
demonstrate that the proposed framework is able to learn even in more
challenging conditions, such as targeted grasping from a cluttered bin.
Necessary pre-grasping behaviors such as object reorientation and utilization
of environmental constraints emerge in this case. Videos of learned interactive
policies are available at https://maltemosbach.github.
io/geometry_aware_grasping_policies.
- Abstract(参考訳): 形状や大きさの異なる物体をグラッピングすることは、人間にとって基礎的で努力の要らないスキルだ。
モデルに基づくアプローチは、既知のオブジェクトモデルの安定した把握構成を予測できるが、新しいオブジェクトへの一般化に苦慮し、しばしば非インタラクティブなオープンループ方式で動作する。
本研究では,人間型ロボットハンドを連続的に制御することにより,様々な幾何学的に異なる実世界の物体の対話的把握を学習する強化学習フレームワークを提案する。
ポリシーのインプットとして、オブジェクト幾何の明示的な表現をいくつか検討する。
さらに,署名された距離を通じて暗黙的にポリシーを通知し,この手法が,形状の報酬成分による探索に自然に適していることを示す。
最後に,提案フレームワークは,乱雑なビンからのターゲット把握など,より困難な条件でも学習可能であることを示す。
この場合, 物体の配向や環境制約の利用など, 必要なプレグラスピング行動が出現する。
学習したインタラクティブなポリシーのビデオはhttps://maltemosbach.github.comで公開されている。
io/geometry_aware_grasping_policiesの略。
関連論文リスト
- Mitigating Object Dependencies: Improving Point Cloud Self-Supervised Learning through Object Exchange [50.45953583802282]
我々は,ポイントクラウドシーン理解のための新たな自己教師型学習(SSL)戦略を導入する。
このアプローチでは、オブジェクトパターンとコンテキストキューの両方を活用して、堅牢な機能を生成します。
提案手法は既存のSSL技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-11T06:39:53Z) - CORN: Contact-based Object Representation for Nonprehensile Manipulation of General Unseen Objects [1.3299507495084417]
非包括的操作は、野生ではあまりに薄く、大きく、または、そうでなければ不快な物体を操作するために不可欠である。
そこで本研究では,接触型オブジェクト表現と事前学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-16T01:47:53Z) - Grasp Anything: Combining Teacher-Augmented Policy Gradient Learning with Instance Segmentation to Grasp Arbitrary Objects [18.342569823885864]
TAPG(Teacher-Augmented Policy Gradient)は、強化学習と政策蒸留を統括する新しい2段階学習フレームワークである。
TAPGは、オブジェクトセグメンテーションに基づいて、誘導的かつ適応的でありながら、センセータポリシーの学習を促進する。
トレーニングされたポリシーは、シミュレーションにおける散らかったシナリオや、人間の理解可能なプロンプトに基づいて現実世界から、多種多様なオブジェクトを順応的に把握する。
論文 参考訳(メタデータ) (2024-03-15T10:48:16Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Learning Generalizable Manipulation Policies with Object-Centric 3D
Representations [65.55352131167213]
GROOTは、オブジェクト中心と3D事前の堅牢なポリシーを学ぶための模倣学習手法である。
ビジョンベースの操作のための初期訓練条件を超えて一般化するポリシーを構築する。
GROOTのパフォーマンスは、バックグラウンドの変更、カメラの視点シフト、新しいオブジェクトインスタンスの存在に関する一般化に優れています。
論文 参考訳(メタデータ) (2023-10-22T18:51:45Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Generalization in Dexterous Manipulation via Geometry-Aware Multi-Task
Learning [108.08083976908195]
既存の強化学習アルゴリズムで学習したポリシーは、実際は一般化可能であることを示す。
本稿では,100以上の幾何学的に異なる実世界のオブジェクトを,単一のジェネラリストポリシーで手動操作できることを示す。
興味深いことに、オブジェクトポイントクラウド表現によるマルチタスク学習は、より一般化するだけでなく、シングルオブジェクトのスペシャリストポリシーよりも優れています。
論文 参考訳(メタデータ) (2021-11-04T17:59:56Z) - Continuous Surface Embeddings [76.86259029442624]
我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2020-11-24T22:52:15Z) - SoftGym: Benchmarking Deep Reinforcement Learning for Deformable Object
Manipulation [15.477950393687836]
我々は、変形可能なオブジェクトを操作するためのオープンソースのシミュレーションベンチマークであるSoftGymを紹介する。
我々はこれらの課題に対して様々なアルゴリズムを評価し、強化学習アルゴリズムの課題を強調した。
論文 参考訳(メタデータ) (2020-11-14T03:46:59Z) - Learning visual policies for building 3D shape categories [130.7718618259183]
この領域における以前の作業は、しばしば既知のプリミティブの集合から特定のオブジェクトのインスタンスを組み立てる。
私たちは、同じカテゴリの他のインスタンスを組み立てるための視覚ポリシーを学びます。
我々の視覚アセンブリポリシーは、実際の画像なしで訓練され、実際のロボットで評価した場合、95%の成功率に達する。
論文 参考訳(メタデータ) (2020-04-15T17:29:10Z) - Learning Rope Manipulation Policies Using Dense Object Descriptors
Trained on Synthetic Depth Data [32.936908766549344]
本稿では,初期とゴールのロープ構成間の点対対応を学習する手法を提案する。
ABB YuMi Robotによるノットタイリングタスクの50回の試行では、これまで見つからなかった構成から66%のノットタイリング成功率を達成した。
論文 参考訳(メタデータ) (2020-03-03T23:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。