論文の概要: Physics-Guided Hierarchical Reward Mechanism for LearningBased
Multi-Finger Object Grasping
- arxiv url: http://arxiv.org/abs/2205.13561v1
- Date: Thu, 26 May 2022 18:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:41:49.456227
- Title: Physics-Guided Hierarchical Reward Mechanism for LearningBased
Multi-Finger Object Grasping
- Title(参考訳): 物理誘導型階層的リワード機構を用いた学習用マルチフィンガーオブジェクトグラフプ
- Authors: Yunsik Jung, Lingfeng Tao, Michael Bowman, Jiucai Zhang, Xiaoli Zhang
- Abstract要約: 学習に基づく把握は、高い計算効率のおかげで、リアルタイムなモーションプランニングを行うことができる。
本研究では,階層的リワード機構を備えた物理誘導型深層強化学習を開発する。
その結果,本手法はタスク性能のベースラインを48%,学習効率を40%向上させた。
- 参考スコア(独自算出の注目度): 10.424363966870775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous grasping is challenging due to the high computational cost caused
by multi-fingered robotic hands and their interactions with objects. Various
analytical methods have been developed yet their high computational cost limits
the adoption in real-world applications. Learning-based grasping can afford
real-time motion planning thanks to its high computational efficiency. However,
it needs to explore large search spaces during its learning process. The search
space causes low learning efficiency, which has been the main barrier to its
practical adoption. In this work, we develop a novel Physics-Guided Deep
Reinforcement Learning with a Hierarchical Reward Mechanism, which combines the
benefits of both analytical methods and learning-based methods for autonomous
grasping. Different from conventional observation-based grasp learning,
physics-informed metrics are utilized to convey correlations between features
associated with hand structures and objects to improve learning efficiency and
learning outcomes. Further, a hierarchical reward mechanism is developed to
enable the robot to learn the grasping task in a prioritized way. It is
validated in a grasping task with a MICO robot arm in simulation and physical
experiments. The results show that our method outperformed the baseline in task
performance by 48% and learning efficiency by 40%.
- Abstract(参考訳): 多指ロボットハンドによる計算コストの増大と,物体との相互作用により,自律的把握は困難である。
様々な解析手法が開発されているが、計算コストが高いため実世界のアプリケーションでは採用が制限されている。
学習に基づく把握は、高い計算効率によりリアルタイムの動作計画を可能にする。
しかし、学習プロセス中に大きな検索空間を探索する必要がある。
検索スペースは学習効率を低下させ、それがその実践的採用の主要な障壁となっている。
本研究では,解析手法と学習に基づく自律的把握手法の両方の利点を組み合わせた,物理誘導型深層強化学習と階層的リワード機構を開発した。
従来の観察に基づくグリップラーニングとは異なり、物理インフォームドメトリクスを用いて手の構造と物体の特徴間の相関関係を伝達し、学習効率と学習結果を改善する。
また、ロボットが把握タスクを優先的に学習できるようにする階層的報酬機構も開発されている。
シミュレーションおよび物理実験において,MICOロボットアームを用いた把握作業で検証した。
その結果,本手法はタスク性能のベースラインを48%,学習効率を40%向上させた。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Advancing Household Robotics: Deep Interactive Reinforcement Learning for Efficient Training and Enhanced Performance [0.0]
強化学習(Reinforcement Learning, RL)は、ロボットが環境と対話することを可能にする重要なロボティクス技術として登場した。
本稿では,Deep Interactive Reinforcement Learningを通じて情報とアドバイスを保存・再利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-29T01:46:50Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Active Hierarchical Imitation and Reinforcement Learning [0.0]
本研究では,我々が開発した階層的模倣強化学習フレームワークを用いて,様々な模倣学習アルゴリズムを探索し,アクティブ学習アルゴリズムを設計した。
実験の結果,daggerと報酬ベースのアクティブラーニング手法は,トレーニング過程において身体的および精神的により多くの努力を省きながら,よりよいパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-14T08:27:27Z) - Efficient reinforcement learning control for continuum robots based on
Inexplicit Prior Knowledge [3.3645162441357437]
本稿では,未熟な事前知識に基づく効率的な強化学習手法を提案する。
本手法を用いることで、腱駆動ロボットのアクティブな視覚追跡と距離維持を実現することができる。
論文 参考訳(メタデータ) (2020-02-26T15:47:11Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。