論文の概要: Training Robots without Robots: Deep Imitation Learning for
Master-to-Robot Policy Transfer
- arxiv url: http://arxiv.org/abs/2202.09574v1
- Date: Sat, 19 Feb 2022 10:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:51:57.672078
- Title: Training Robots without Robots: Deep Imitation Learning for
Master-to-Robot Policy Transfer
- Title(参考訳): ロボットのいない訓練ロボット:マスター・ツー・ロボット政策伝達のための深層模倣学習
- Authors: Heecheol Kim, Yoshiyuki Ohmura, Akihiko Nagakubo, and Yasuo Kuniyoshi
- Abstract要約: 深層模倣学習(Deep mimicion learning)は、巧妙なロボット操作のための有望な方法である。
新しいマスタ・トゥ・ロボット(M2R)トランスファー学習システムは、ロボットを必要とせず、きめ細やかな力フィードバックに基づく操作タスクをロボットに教えることができる。
- 参考スコア(独自算出の注目度): 2.3274138116397727
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep imitation learning is a promising method for dexterous robot
manipulation because it only requires demonstration samples for learning
manipulation skills. In this paper, deep imitation learning is applied to tasks
that require force feedback, such as bottle opening. However, simple visual
feedback systems, such as teleoperation, cannot be applied because they do not
provide force feedback to operators. Bilateral teleoperation has been used for
demonstration with force feedback; however, this requires an expensive and
complex bilateral robot system. In this paper, a new master-to-robot (M2R)
transfer learning system is presented that does not require robots but can
still teach dexterous force feedback-based manipulation tasks to robots. The
human directly demonstrates a task using a low-cost controller that resembles
the kinematic parameters of the robot arm. Using this controller, the operator
can naturally feel the force feedback without any expensive bilateral system.
Furthermore, the M2R transfer system can overcome domain gaps between the
master and robot using the gaze-based imitation learning framework and a simple
calibration method. To demonstrate this, the proposed system was evaluated on a
bottle-cap-opening task that requires force feedback only for the master
demonstration.
- Abstract(参考訳): 深層模倣学習(deep imitation learning)は、学習操作スキルの実証サンプルのみを必要とするため、デクスタースロボット操作の有望な方法である。
本稿では,ボトル開口などの力フィードバックを必要とするタスクに対して,深い模倣学習を適用した。
しかし、遠隔操作のような単純な視覚フィードバックシステムは、演算子に強制フィードバックを提供しないため、適用できない。
双方向遠隔操作は力フィードバックによる実演に使われてきたが、これは高価で複雑な双方向ロボットシステムを必要とする。
本稿では,ロボットを必要とせず,力覚フィードバックに基づく操作タスクをロボットに教えることができる新しいマスタ・トゥ・ロボット(M2R)トランスファー学習システムを提案する。
人間はロボットアームの運動パラメータに似た低コストのコントローラーを使ってタスクを直接デモンストレーションする。
このコントローラを使うと、オペレーターは高価なバイラテラルシステムなしで自然に力のフィードバックを感じることができる。
さらに、M2R転送システムは、視線に基づく模倣学習フレームワークと簡単な校正手法を用いて、マスターとロボットのドメインギャップを克服することができる。
これを証明するために,本システムでは,マスターデモのみの強制フィードバックを必要とするボトルキャップ開放作業で評価を行った。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Learning Variable Compliance Control From a Few Demonstrations for Bimanual Robot with Haptic Feedback Teleoperation System [5.497832119577795]
厳格なロボットを使った、きめ細やかな、接触に富んだ操作は、ロボット工学において重要な課題である。
外部センサを介して力を制御することでこれらの問題を緩和するために、コンプライアンス制御スキームが導入されている。
Demonstrationsからの学習は直感的な代替手段であり、ロボットは観察された動作を通じて操作を学習できる。
論文 参考訳(メタデータ) (2024-06-21T09:03:37Z) - A Framework for Learning from Demonstration with Minimal Human Effort [11.183124892686239]
ロボット学習は、システムの制御が人間の遠隔操作と自律的な制御とを切り替えることのできる、共有自律という文脈で考える。
この設定では、強化学習と、人的時間に関連するコストがある実演からの学習に対処する。
提案手法は,2つのシミュレートされたタスクと1つの実世界のタスクを実行するための人件費を削減できることを示す。
論文 参考訳(メタデータ) (2023-06-15T15:49:37Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - NeRF in the Palm of Your Hand: Corrective Augmentation for Robotics via
Novel-View Synthesis [50.93065653283523]
SPARTN(Synthetic Perturbations for Augmenting Robot Trajectories via NeRF)は、ロボットポリシーを改善するための完全なオフラインデータ拡張スキームである。
提案手法はニューラルレイディアンス場(NeRF)を利用して,視覚的デモンストレーションに補正ノイズを合成注入する。
シミュレーションされた6-DoF視覚的把握ベンチマークでは、SPARTNは精度を2.8$times$で改善する。
論文 参考訳(メタデータ) (2023-01-18T23:25:27Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Transformer-based deep imitation learning for dual-arm robot
manipulation [5.3022775496405865]
デュアルアームの操作設定では、追加のロボットマニピュレータによって引き起こされる状態次元の増加が注意をそらす。
本稿では、逐次入力における要素間の依存関係を計算し、重要な要素に焦点をあてる自己認識機構を用いてこの問題に対処する。
自己注意型アーキテクチャの変種であるTransformerは、実世界のデュアルアーム操作タスクを解決するために、深層模倣学習に適用される。
論文 参考訳(メタデータ) (2021-08-01T07:42:39Z) - Learning of Long-Horizon Sparse-Reward Robotic Manipulator Tasks with
Base Controllers [26.807673929816026]
本稿では,1つ以上の従来型ベースコントローラを用いた長軸スパース・リワードタスクの学習手法を提案する。
提案アルゴリズムは,既存のベースコントローラを探索,価値学習,ポリシー更新の段階に組み込む。
我々の方法は、既存の産業用ロボット操作システムを利用して、より柔軟でインテリジェントなコントローラを構築する可能性を秘めている。
論文 参考訳(メタデータ) (2020-11-24T14:23:57Z) - Learning Force Control for Contact-rich Manipulation Tasks with Rigid
Position-controlled Robots [9.815369993136512]
従来の力制御とRL手法を組み合わせた学習に基づく力制御フレームワークを提案する。
このような制御方式の中で,位置制御ロボットによる力制御を実現するために,従来の2つの手法を実装した。
最後に,実剛性ロボットマニピュレータを用いた操作作業において,RLエージェントを安全に訓練するためのフェールセーフ機構を開発した。
論文 参考訳(メタデータ) (2020-03-02T01:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。