論文の概要: A Learning Approach to Robot-Agnostic Force-Guided High Precision
Assembly
- arxiv url: http://arxiv.org/abs/2010.08052v3
- Date: Mon, 2 Aug 2021 12:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:04:45.958207
- Title: A Learning Approach to Robot-Agnostic Force-Guided High Precision
Assembly
- Title(参考訳): ロボット非依存力誘導型高精度アセンブリの学習的アプローチ
- Authors: Jieliang Luo and Hui Li
- Abstract要約: 本稿では,高精度なロボット組立問題に対する学習手法を提案する。
組立部品が互いに密接な接触関係にあるような,コンタクトリッチなフェーズに着目する。
私たちのトレーニング環境は、エンドエフェクターが特定のロボットにアタッチされないため、ロボットレスです。
- 参考スコア(独自算出の注目度): 6.062589413216726
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work we propose a learning approach to high-precision robotic
assembly problems. We focus on the contact-rich phase, where the assembly
pieces are in close contact with each other. Unlike many learning-based
approaches that heavily rely on vision or spatial tracking, our approach takes
force/torque in task space as the only observation. Our training environment is
robotless, as the end-effector is not attached to any specific robot. Trained
policies can then be applied to different robotic arms without re-training.
This approach can greatly reduce complexity to perform contact-rich robotic
assembly in the real world, especially in unstructured settings such as in
architectural construction. To achieve it, we have developed a new distributed
RL agent, named Recurrent Distributed DDPG (RD2), which extends Ape-X DDPG with
recurrency and makes two structural improvements on prioritized experience
replay. Our results show that RD2 is able to solve two fundamental
high-precision assembly tasks, lap-joint and peg-in-hole, and outperforms two
state-of-the-art algorithms, Ape-X DDPG and PPO with LSTM. We have successfully
evaluated our robot-agnostic policies on three robotic arms, Kuka KR60, Franka
Panda, and UR10, in simulation. The video presenting our experiments is
available at https://sites.google.com/view/rd2-rl
- Abstract(参考訳): 本研究では,高精度ロボット組立問題に対する学習手法を提案する。
組立部品が互いに密接な接触関係にあるような,コンタクトリッチなフェーズに着目する。
視覚や空間追跡に大きく依存する多くの学習ベースのアプローチとは異なり、我々のアプローチはタスク空間において唯一の観察として力/ねじれを取る。
私たちのトレーニング環境は、エンドエフェクターが特定のロボットにアタッチされないため、ロボットレスです。
トレーニングされたポリシーは、再トレーニングすることなく、異なるロボットアームに適用することができる。
このアプローチは、特に建築構造のような非構造的な環境において、実世界でコンタクトリッチなロボット組立を行うための複雑さを大幅に減らすことができる。
そこで我々は, Ape-X DDPG を繰り返し拡張する分散 RL エージェント Recurrent Distributed DDPG (RD2) を開発した。
以上の結果から,RD2はラッパージョイントとペグ・イン・ホールの2つの基本的高精度組立タスクを解くことができ,Ape-X DDPGとPPOの2つの最先端アルゴリズムをLSTMで上回っていることがわかった。
我々は,3つのロボットアーム,Kuka KR60,Franka Panda,UR10のロボット認識ポリシーをシミュレーションで評価した。
実験のビデオはhttps://sites.google.com/view/rd2-rlで公開されている。
関連論文リスト
- SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Robot Learning on the Job: Human-in-the-Loop Autonomy and Learning
During Deployment [25.186525630548356]
Siriusは、人間とロボットが共同作業を行うための、原則化されたフレームワークである。
部分的に自律的なロボットは、意思決定の大部分を確実に行うことを任務としている。
タスク実行から収集したデータに対するポリシーの性能を改善するための新しい学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-15T18:53:39Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Bi-Manual Manipulation and Attachment via Sim-to-Real Reinforcement
Learning [23.164743388342803]
シミュレーションで訓練された強化学習を用いて,両手作業の解法について検討する。
また、RLポリシーの効果的なトレーニングにつながるシミュレーション環境の変更についても検討する。
本研究では,2つのロボットアームが磁気的接続点を持つ2つのブロックを拾い上げるための接続タスクを設計する。
論文 参考訳(メタデータ) (2022-03-15T21:49:20Z) - SAGCI-System: Towards Sample-Efficient, Generalizable, Compositional,
and Incremental Robot Learning [41.19148076789516]
上記の4つの要件を満たすために,SAGCIシステムと呼ばれる体系的な学習フレームワークを導入する。
本システムはまず,ロボットの手首に搭載されたカメラによって収集された生点雲を入力とし,URDFに代表される周囲環境の初期モデリングを生成する。
そのロボットは、対話的な知覚を利用して環境と対話し、URDFのオンライン検証と修正を行う。
論文 参考訳(メタデータ) (2021-11-29T16:53:49Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z) - robo-gym -- An Open Source Toolkit for Distributed Deep Reinforcement
Learning on Real and Simulated Robots [0.5161531917413708]
本稿では,ロボットによる深層強化学習を向上するためのオープンソースのツールキット,robo-gymを提案する。
シミュレーションにおけるトレーニングからロボットへのシームレスな移動を可能にするシミュレーション環境と実環境の統一的なセットアップを実証する。
産業用ロボットを特徴とする2つの実世界アプリケーションを用いて,本フレームワークの能力と有効性を示す。
論文 参考訳(メタデータ) (2020-07-06T13:51:33Z) - Smooth Exploration for Robotic Reinforcement Learning [11.215352918313577]
強化学習(Reinforcement Learning, RL)は、ロボットが現実世界との対話からスキルを学ぶことを可能にする。
実際には、Deep RLで使用される非構造的なステップベースの探索は、実際のロボットにジャーキーな動きパターンをもたらす。
本稿では、状態依存探索(SDE)を現在のDeep RLアルゴリズムに適応させることにより、これらの問題に対処する。
論文 参考訳(メタデータ) (2020-05-12T12:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。