論文の概要: Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance
- arxiv url: http://arxiv.org/abs/2212.09902v1
- Date: Mon, 19 Dec 2022 22:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 13:32:54.122352
- Title: Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance
- Title(参考訳): 画像からのデクサラスマニピュレーション:サブステップ誘導による自律的実世界RL
- Authors: Kelvin Xu, Zheyuan Hu, Ria Doshi, Aaron Rovinsky, Vikash Kumar,
Abhishek Gupta, Sergey Levine
- Abstract要約: 本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
- 参考スコア(独自算出の注目度): 71.36749876465618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex and contact-rich robotic manipulation tasks, particularly those that
involve multi-fingered hands and underactuated object manipulation, present a
significant challenge to any control method. Methods based on reinforcement
learning offer an appealing choice for such settings, as they can enable robots
to learn to delicately balance contact forces and dexterously reposition
objects without strong modeling assumptions. However, running reinforcement
learning on real-world dexterous manipulation systems often requires
significant manual engineering. This negates the benefits of autonomous data
collection and ease of use that reinforcement learning should in principle
provide. In this paper, we describe a system for vision-based dexterous
manipulation that provides a "programming-free" approach for users to define
new tasks and enable robots with complex multi-fingered hands to learn to
perform them through interaction. The core principle underlying our system is
that, in a vision-based setting, users should be able to provide high-level
intermediate supervision that circumvents challenges in teleoperation or
kinesthetic teaching which allow a robot to not only learn a task efficiently
but also to autonomously practice. Our system includes a framework for users to
define a final task and intermediate sub-tasks with image examples, a
reinforcement learning procedure that learns the task autonomously without
interventions, and experimental results with a four-finger robotic hand
learning multi-stage object manipulation tasks directly in the real world,
without simulation, manual modeling, or reward engineering.
- Abstract(参考訳): 複雑で接触に富んだロボット操作、特に多指の手と不動の物体操作を含むタスクは、あらゆる制御方法に重大な課題をもたらす。
強化学習に基づく手法は、ロボットが強力なモデリング仮定なしで、接触力と微妙に再配置する物体の微妙なバランスを学べるように、そのような設定に魅力的な選択肢を提供する。
しかし、実世界の巧妙な操作システムで強化学習を実行するには、しばしばかなりの手動技術が必要である。
これにより、自律的なデータ収集のメリットと、強化学習が原則的に提供するべき使いやすさが否定される。
本稿では,ユーザが新しいタスクを定義し,複雑な多指ハンドを持つロボットがインタラクションを通じてその動作を学べるようにするための"プログラミングフリー"なアプローチを提供する,視覚に基づくデクスタース操作のシステムについて述べる。
我々のシステムの基本原理は、視覚ベースの環境では、ユーザーは遠隔操作や審美教育の課題を回避し、ロボットがタスクを効率的に学習するだけでなく、自律的に実践することのできる、ハイレベルな中間管理を提供するべきである。
本システムには,最終タスクと中間サブタスクを画像例で定義するフレームワーク,介入なしにタスクを自律的に学習する強化学習手順,シミュレーションや手動モデリング,報酬工学を伴わない実世界での多段階オブジェクト操作タスクを直接学習する4本指ロボットハンドによる実験結果が含まれている。
関連論文リスト
- Unsupervised Skill Discovery for Robotic Manipulation through Automatic Task Generation [17.222197596599685]
本稿では,多数の自律的タスクを解くことで構成可能な振る舞いを発見するスキル学習手法を提案する。
本手法は,ロボットが環境内の物体と連続的かつ堅牢に対話することを可能にするスキルを学習する。
学習したスキルは、シミュレーションだけでなく、本物のロボットプラットフォーム上でも、目に見えない操作タスクのセットを解決するために使用できる。
論文 参考訳(メタデータ) (2024-10-07T09:19:13Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Physics-Guided Hierarchical Reward Mechanism for Learning-Based Robotic
Grasping [10.424363966870775]
我々は,学習効率と学習に基づく自律的把握の一般化性を向上させるために,階層的リワード機構を備えた物理誘導型深層強化学習を開発した。
本手法は3本指MICOロボットアームを用いたロボット把握作業において有効である。
論文 参考訳(メタデータ) (2022-05-26T18:01:56Z) - BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning [108.41464483878683]
本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
論文 参考訳(メタデータ) (2022-02-04T07:30:48Z) - An Empowerment-based Solution to Robotic Manipulation Tasks with Sparse
Rewards [14.937474939057596]
ロボットマニピュレータは、非常にまばらな指示信号しか提供されていなくても、タスクを達成できることを学ぶことが重要である。
本稿では,任意の標準強化学習アルゴリズムに容易に組み込むことができる本質的な動機づけ手法を提案する。
論文 参考訳(メタデータ) (2020-10-15T19:06:21Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。