論文の概要: Physics-Guided Hierarchical Reward Mechanism for Learning-Based Robotic
Grasping
- arxiv url: http://arxiv.org/abs/2205.13561v3
- Date: Sun, 23 Jul 2023 23:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 01:09:55.005020
- Title: Physics-Guided Hierarchical Reward Mechanism for Learning-Based Robotic
Grasping
- Title(参考訳): 学習型ロボットグラスピングのための物理誘導階層的リワード機構
- Authors: Yunsik Jung, Lingfeng Tao, Michael Bowman, Jiucai Zhang, Xiaoli Zhang
- Abstract要約: 我々は,学習効率と学習に基づく自律的把握の一般化性を向上させるために,階層的リワード機構を備えた物理誘導型深層強化学習を開発した。
本手法は3本指MICOロボットアームを用いたロボット把握作業において有効である。
- 参考スコア(独自算出の注目度): 10.424363966870775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Learning-based grasping can afford real-time grasp motion planning of
multi-fingered robotics hands thanks to its high computational efficiency.
However, learning-based methods are required to explore large search spaces
during the learning process. The search space causes low learning efficiency,
which has been the main barrier to its practical adoption. In addition, the
trained policy lacks a generalizable outcome unless objects are identical to
the trained objects. In this work, we develop a novel Physics-Guided Deep
Reinforcement Learning with a Hierarchical Reward Mechanism to improve learning
efficiency and generalizability for learning-based autonomous grasping. Unlike
conventional observation-based grasp learning, physics-informed metrics are
utilized to convey correlations between features associated with hand
structures and objects to improve learning efficiency and outcomes. Further,
the hierarchical reward mechanism enables the robot to learn prioritized
components of the grasping tasks. Our method is validated in robotic grasping
tasks with a 3-finger MICO robot arm. The results show that our method
outperformed the standard Deep Reinforcement Learning methods in various
robotic grasping tasks.
- Abstract(参考訳): 学習に基づく把持は、高い計算効率により、多指ロボットハンドのリアルタイム把持動作計画を可能にする。
しかし,学習過程において大きな探索空間を探索するためには,学習に基づく手法が必要となる。
検索スペースは学習効率を低下させ、それがその実践的採用の主要な障壁となっている。
加えて、トレーニングされたポリシーには、オブジェクトがトレーニングされたオブジェクトと同一でない限り、一般的な結果が欠けている。
本研究では,学習効率と学習に基づく自律的把握の一般化性を向上させるために,階層的リワード機構を備えた物理誘導型深層強化学習を開発する。
従来の観察に基づくグリップラーニングとは異なり、物理インフォームドメトリクスは手の構造と物体の相関関係を伝達し、学習効率と結果を改善する。
さらに、階層的な報酬機構により、ロボットは把握タスクの優先順位付けされたコンポーネントを学習することができる。
本手法は3本指MICOロボットアームを用いたロボット把握作業において有効である。
その結果,ロボットの把握作業において,標準的なDeep Reinforcement Learning法よりも優れていた。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Advancing Household Robotics: Deep Interactive Reinforcement Learning for Efficient Training and Enhanced Performance [0.0]
強化学習(Reinforcement Learning, RL)は、ロボットが環境と対話することを可能にする重要なロボティクス技術として登場した。
本稿では,Deep Interactive Reinforcement Learningを通じて情報とアドバイスを保存・再利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-29T01:46:50Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Active Hierarchical Imitation and Reinforcement Learning [0.0]
本研究では,我々が開発した階層的模倣強化学習フレームワークを用いて,様々な模倣学習アルゴリズムを探索し,アクティブ学習アルゴリズムを設計した。
実験の結果,daggerと報酬ベースのアクティブラーニング手法は,トレーニング過程において身体的および精神的により多くの努力を省きながら,よりよいパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-14T08:27:27Z) - Efficient reinforcement learning control for continuum robots based on
Inexplicit Prior Knowledge [3.3645162441357437]
本稿では,未熟な事前知識に基づく効率的な強化学習手法を提案する。
本手法を用いることで、腱駆動ロボットのアクティブな視覚追跡と距離維持を実現することができる。
論文 参考訳(メタデータ) (2020-02-26T15:47:11Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。