論文の概要: Deep Reinforcement Learning for Contact-Rich Skills Using Compliant
Movement Primitives
- arxiv url: http://arxiv.org/abs/2008.13223v2
- Date: Sun, 25 Oct 2020 17:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:36:40.762443
- Title: Deep Reinforcement Learning for Contact-Rich Skills Using Compliant
Movement Primitives
- Title(参考訳): コンピレント・ムーブメント・プリミティブを用いたコンタクトリッチスキルの深層強化学習
- Authors: Oren Spector and Miriam Zacksenhouse
- Abstract要約: 産業用ロボットのさらなる統合は、柔軟性、適応性、意思決定スキルの制限によって妨げられている。
収束と一般化を容易にする異なるプルーニング手法を提案する。
提案手法は,空間,サイズ,形状,および密接に関連するシナリオに不変な挿入スキルを学習できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, industrial robots have been installed in various industries
to handle advanced manufacturing and high precision tasks. However, further
integration of industrial robots is hampered by their limited flexibility,
adaptability and decision making skills compared to human operators. Assembly
tasks are especially challenging for robots since they are contact-rich and
sensitive to even small uncertainties. While reinforcement learning (RL) offers
a promising framework to learn contact-rich control policies from scratch, its
applicability to high-dimensional continuous state-action spaces remains rather
limited due to high brittleness and sample complexity. To address those issues,
we propose different pruning methods that facilitate convergence and
generalization. In particular, we divide the task into free and contact-rich
sub-tasks, perform the control in Cartesian rather than joint space, and
parameterize the control policy. Those pruning methods are naturally
implemented within the framework of dynamic movement primitives (DMP). To
handle contact-rich tasks, we extend the DMP framework by introducing a
coupling term that acts like the human wrist and provides active compliance
under contact with the environment. We demonstrate that the proposed method can
learn insertion skills that are invariant to space, size, shape, and closely
related scenarios, while handling large uncertainties. Finally we demonstrate
that the learned policy can be easily transferred from simulations to real
world and achieve similar performance on UR5e robot.
- Abstract(参考訳): 近年,工業用ロボットが様々な産業に導入され,製造の高度化や高精度化が進んでいる。
しかし、産業用ロボットのさらなる統合は、人間の操作者に比べて柔軟性、適応性、意思決定能力の制限によって妨げられている。
組み立て作業は、接触に富み、小さな不確実性にも敏感であるため、ロボットにとって特に困難である。
強化学習(RL)は、接触豊富な制御ポリシーをスクラッチから学習するための有望なフレームワークを提供するが、高次元連続状態空間への適用性は、高い脆性とサンプルの複雑さのために、かなり制限されている。
これらの問題に対処するため,我々は収束と一般化を容易にする異なるプルーニング手法を提案する。
特に,タスクを自由かつ接触に富んだサブタスクに分割し,関節空間ではなくカルテシアンで制御を行い,制御ポリシーをパラメータ化する。
これらは動的運動プリミティブ(DMP)の枠組みの中で自然に実装されている。
そこで我々は,人間の手首のように振る舞う結合項を導入し,環境との接触下でアクティブなコンプライアンスを実現することにより,DMPフレームワークを拡張した。
提案手法は,空間,サイズ,形状,および密接に関連するシナリオに不変な挿入スキルを学習し,大きな不確かさを処理できることを実証する。
最後に,学習方針をシミュレーションから実世界へ容易に移行し,ur5eロボットでも同様の性能を実現することを実証する。
関連論文リスト
- Sparse Diffusion Policy: A Sparse, Reusable, and Flexible Policy for Robot Learning [61.294110816231886]
我々はスパース・リユース・フレキシブル・ポリシー、スパース・ディフュージョン・ポリシー(SDP)を導入する。
SDPは、エキスパートとスキルを選択的に活性化し、モデル全体をトレーニングすることなく、効率的でタスク固有の学習を可能にする。
デモとコードはhttps://forrest-110.io/sparse_diffusion_policy/にある。
論文 参考訳(メタデータ) (2024-07-01T17:59:56Z) - Towards Natural Language-Driven Assembly Using Foundation Models [11.710022685486914]
大規模言語モデル(LLM)と強力な視覚モデルにより、ビジョン・ランゲージ・アクションモデル(英語版)の分野での迅速な研究と開発が可能となった。
本稿では,LLMをベースとしたグローバルコントロールポリシを提案する。
このフレームワークへのLLMの統合は、言語入力の解釈と処理だけでなく、多種多様な複雑なロボット操作のための制御機構の強化においても、その重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-06-23T12:14:37Z) - GenCHiP: Generating Robot Policy Code for High-Precision and Contact-Rich Manipulation Tasks [28.556818911535498]
大規模言語モデル(LLM)はロボットポリシーコードの生成に成功しているが、今のところこれらの結果はハイレベルなタスクに限られている。
適切なアクション空間では、LLMは様々なコンタクトリッチかつ高精度な操作タスクのためのポリシーを生成することができる。
論文 参考訳(メタデータ) (2024-04-09T22:47:25Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - A Contact-Safe Reinforcement Learning Framework for Contact-Rich Robot
Manipulation [5.0768619194124005]
本稿では,コンタクトリッチロボット操作のためのコンタクトセーフ強化学習フレームワークを提案する。
RLポリシーがロボットアームと環境の予期せぬ衝突を引き起こすと、我々のフレームワークはすぐに衝突を検出し、接触力を小さくすることができる。
本手法は, 予期せぬ衝突のシナリオ下であっても, タスク空間とジョイント空間の両方で接触力を小さく抑えることができる。
論文 参考訳(メタデータ) (2022-07-27T10:35:44Z) - Towards Coordinated Robot Motions: End-to-End Learning of Motion
Policies on Transform Trees [63.31965375413414]
人間による実証から構造化政策を学習し、マルチタスクの課題解決を提案します。
我々の構造化ポリシーは、異なる空間におけるサブタスクポリシーを組み合わせるためのフレームワークであるRMPflowにインスパイアされている。
マルチタスク問題に適したエンドツーエンドの学習目標関数を導き出します。
論文 参考訳(メタデータ) (2020-12-24T22:46:22Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - COCOI: Contact-aware Online Context Inference for Generalizable
Non-planar Pushing [87.7257446869134]
一般的なコンタクトリッチな操作問題は、ロボット工学における長年の課題である。
深層強化学習は、ロボット操作タスクの解決に大きな可能性を示している。
動的プロパティのコンテキスト埋め込みをオンラインにエンコードする深層RL法であるCOCOIを提案する。
論文 参考訳(メタデータ) (2020-11-23T08:20:21Z) - Variable Compliance Control for Robotic Peg-in-Hole Assembly: A Deep
Reinforcement Learning Approach [4.045850174820418]
ホールの位置不確実性を考慮したペグ・イン・ホール問題の解法を提案する。
位置制御ロボットのための学習フレームワークを,コンタクトリッチ挿入タスクにおいて広範囲に評価した。
論文 参考訳(メタデータ) (2020-08-24T06:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。