論文の概要: Imitation Learning for High Precision Peg-in-Hole Tasks
- arxiv url: http://arxiv.org/abs/2101.01052v1
- Date: Sat, 26 Dec 2020 08:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 01:06:35.199355
- Title: Imitation Learning for High Precision Peg-in-Hole Tasks
- Title(参考訳): 高精度ペグ・イン・ホールタスクの模倣学習
- Authors: Sagar Gubbi and Shishir Kolathaya and Bharadwaj Amrutur
- Abstract要約: 6-DOFロボットマニピュレータにおけるペグ・イン・ホール挿入タスクを模倣する生成方法を示す。
特に、生成的相反的模倣学習(gail)を用いて、10 um と 6 um の peg-hole clearance でこの課題を成功させる。
- 参考スコア(独自算出の注目度): 1.325953054381901
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Industrial robot manipulators are not able to match the precision and speed
with which humans are able to execute contact rich tasks even to this day.
Therefore, as a means overcome this gap, we demonstrate generative methods for
imitating a peg-in-hole insertion task in a 6-DOF robot manipulator. In
particular, generative adversarial imitation learning (GAIL) is used to
successfully achieve this task with a 10 um, and a 6 um peg-hole clearance on
the Yaskawa GP8 industrial robot. Experimental results show that the policy
successfully learns within 20 episodes from a handful of human expert
demonstrations on the robot (i.e., < 10 tele-operated robot demonstrations).
The insertion time improves from > 20 seconds (which also includes failed
insertions) to < 15 seconds, thereby validating the effectiveness of this
approach.
- Abstract(参考訳): 産業用ロボットマニピュレータは、人間が現在に至るまで、コンタクトリッチなタスクを実行できる精度とスピードとを一致させることができない。
そこで, このギャップを克服する手段として, 6-DOFロボットマニピュレータにおいて, 穴内挿入タスクを模倣する生成方法を示す。
特に, GAIL(Generative Adversarial mimicion Learning, GAIL)は, 八川GP8産業用ロボットの10mと6mのペグホールクリアランスを用いて, このタスクを成功させる。
実験の結果,ロボット上での少数の人間専門家によるデモンストレーション(遠隔操作ロボット10例)から20エピソード以内の学習が得られた。
挿入時間は > 20 秒(挿入失敗を含む)から < 15 秒に改善され、このアプローチの有効性が検証される。
関連論文リスト
- RP1M: A Large-Scale Motion Dataset for Piano Playing with Bi-Manual Dexterous Robot Hands [57.64308229980045]
ロボットピアノ100万のデータセットには,100万回以上の軌跡の動作データをバイマニュアルで演奏するロボットピアノが組み込まれている。
指の配置を最適な移動問題として定式化し、大量の未収録曲の自動アノテーションを可能にする。
既存の模倣学習手法のベンチマークでは、RP1Mを活用することにより、最先端のロボットピアノ演奏性能に達することが示されている。
論文 参考訳(メタデータ) (2024-08-20T17:56:52Z) - How Can Everyday Users Efficiently Teach Robots by Demonstrations? [3.6145826787059643]
本稿では,人間の教師に情報伝達の実証例を提案するための指標として,タスク関連情報エントロピーという不確実性の尺度を提案する。
その結果,教師のデモンストレーションからロボット学習効率が大幅に向上した。
論文 参考訳(メタデータ) (2023-10-19T18:21:39Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware [132.39281056124312]
ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
論文 参考訳(メタデータ) (2023-04-23T19:10:53Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Reinforcement Learning Experiments and Benchmark for Solving Robotic
Reaching Tasks [0.0]
強化学習はロボットアームによる到達タスクの解決に成功している。
ハイドサイト体験再生探索技術により報奨信号の増大が, オフ・ポリティクス・エージェントの平均リターンを増加させることが示されている。
論文 参考訳(メタデータ) (2020-11-11T14:00:49Z) - Exploiting Ergonomic Priors in Human-to-Robot Task Transfer [3.60953887026184]
制約された動きデータからヌル空間ポリシーを学習するために,実演によるプログラミングに基づく手法を提案する。
本手法の有効性を3リンクシミュレーションと実世界実験で実証した。
シミュレーションされた3DoFロボットマニピュレータ制御問題において,この手法は最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-01T18:30:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。