論文の概要: SoftGym: Benchmarking Deep Reinforcement Learning for Deformable Object
Manipulation
- arxiv url: http://arxiv.org/abs/2011.07215v2
- Date: Mon, 8 Mar 2021 04:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 13:54:43.393443
- Title: SoftGym: Benchmarking Deep Reinforcement Learning for Deformable Object
Manipulation
- Title(参考訳): SoftGym: 変形可能なオブジェクト操作のための深層強化学習のベンチマーク
- Authors: Xingyu Lin, Yufei Wang, Jake Olkin, David Held
- Abstract要約: 我々は、変形可能なオブジェクトを操作するためのオープンソースのシミュレーションベンチマークであるSoftGymを紹介する。
我々はこれらの課題に対して様々なアルゴリズムを評価し、強化学習アルゴリズムの課題を強調した。
- 参考スコア(独自算出の注目度): 15.477950393687836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manipulating deformable objects has long been a challenge in robotics due to
its high dimensional state representation and complex dynamics. Recent success
in deep reinforcement learning provides a promising direction for learning to
manipulate deformable objects with data driven methods. However, existing
reinforcement learning benchmarks only cover tasks with direct state
observability and simple low-dimensional dynamics or with relatively simple
image-based environments, such as those with rigid objects. In this paper, we
present SoftGym, a set of open-source simulated benchmarks for manipulating
deformable objects, with a standard OpenAI Gym API and a Python interface for
creating new environments. Our benchmark will enable reproducible research in
this important area. Further, we evaluate a variety of algorithms on these
tasks and highlight challenges for reinforcement learning algorithms, including
dealing with a state representation that has a high intrinsic dimensionality
and is partially observable. The experiments and analysis indicate the
strengths and limitations of existing methods in the context of deformable
object manipulation that can help point the way forward for future methods
development. Code and videos of the learned policies can be found on our
project website.
- Abstract(参考訳): 変形可能な物体を操作することは、その高次元状態表現と複雑なダイナミクスのため、ロボット工学において長年の課題であった。
近年の強化学習の成功は、変形可能なオブジェクトをデータ駆動方式で操作する学習に有望な方向を提供する。
しかしながら、既存の強化学習ベンチマークは、直接状態観察性と単純な低次元ダイナミクス、あるいは剛体のあるオブジェクトのような比較的単純なイメージベース環境でのみタスクをカバーする。
本稿では、変形可能なオブジェクトを操作するためのオープンソースのシミュレーションベンチマークであるSoftGymについて、標準のOpenAI Gym APIと、新しい環境を作成するためのPythonインターフェースで紹介する。
私たちのベンチマークは、この重要な領域で再現可能な研究を可能にします。
さらに,これらの課題について様々なアルゴリズムを評価し,本質的次元が高く,部分的に観察可能な状態表現を扱うことを含む強化学習アルゴリズムの課題を強調する。
実験と分析は、変形可能なオブジェクト操作のコンテキストにおける既存のメソッドの強みと限界を示し、将来のメソッド開発に向けての方向性を示すのに役立つ。
学習したポリシーのコードとビデオは、プロジェクトのWebサイトにある。
関連論文リスト
- GarmentLab: A Unified Simulation and Benchmark for Garment Manipulation [12.940189262612677]
GarmentLabは、変形可能なオブジェクトと衣料品の操作のために設計された、コンテンツリッチなベンチマークと現実的なシミュレーションである。
私たちのベンチマークには、さまざまな種類の衣料品、ロボットシステム、マニピュレータが含まれています。
これらの課題に対して、最先端のビジョン手法、強化学習、模倣学習アプローチを評価した。
論文 参考訳(メタデータ) (2024-11-02T10:09:08Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - Learning Generalizable Manipulation Policies with Object-Centric 3D
Representations [65.55352131167213]
GROOTは、オブジェクト中心と3D事前の堅牢なポリシーを学ぶための模倣学習手法である。
ビジョンベースの操作のための初期訓練条件を超えて一般化するポリシーを構築する。
GROOTのパフォーマンスは、バックグラウンドの変更、カメラの視点シフト、新しいオブジェクトインスタンスの存在に関する一般化に優れています。
論文 参考訳(メタデータ) (2023-10-22T18:51:45Z) - Learning visual-based deformable object rearrangement with local graph
neural networks [4.333220038316982]
本稿では,変形可能なオブジェクト状態とキーポイントの集合とその相互作用を効率的にモデル化できる新しい表現戦略を提案する。
また、変形可能な再配置ダイナミクスを共同でモデル化し、最適操作動作を推定するための光局所GNN学習を提案する。
本手法は, 各種変形可能なアレンジメントタスク(平均96.3%)において, シミュレーション実験における最先端手法よりもはるかに高い成功率を達成する。
論文 参考訳(メタデータ) (2023-10-16T11:42:54Z) - Learning Foresightful Dense Visual Affordance for Deformable Object
Manipulation [5.181990978232578]
本研究では,多種多様な状態への一般化をめざして,高密度な視覚能力を用いた変形可能な物体の操作について検討する。
本稿では,この表現を学習するためのフレームワークを提案し,多段階安定学習や,専門家のいない効率的な自己教師型データ収集などの新しい設計を提案する。
論文 参考訳(メタデータ) (2023-03-20T12:14:13Z) - Learning to Transfer In-Hand Manipulations Using a Greedy Shape
Curriculum [79.6027464700869]
本研究では, 動的シミュレーションにおける簡易物体の自然な, 頑健な手動操作が, 高品質なモーションキャプチャの例から学習可能であることを示す。
本稿では,ティーポット,バニー,ボトル,トレイン,ゾウなど,さまざまな対象に適用可能な,単純なグリージーなカリキュラム検索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-14T17:08:19Z) - Efficient Representations of Object Geometry for Reinforcement Learning
of Interactive Grasping Policies [29.998917158604694]
本稿では,様々な幾何学的に異なる実世界の物体の対話的把握を学習する強化学習フレームワークを提案する。
学習したインタラクティブなポリシーのビデオはhttps://maltemosbach.org/io/geometry_aware_grasping_policiesで公開されている。
論文 参考訳(メタデータ) (2022-11-20T11:47:33Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。