論文の概要: An Empowerment-based Solution to Robotic Manipulation Tasks with Sparse
Rewards
- arxiv url: http://arxiv.org/abs/2010.07986v3
- Date: Wed, 16 Jun 2021 22:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:29:48.731761
- Title: An Empowerment-based Solution to Robotic Manipulation Tasks with Sparse
Rewards
- Title(参考訳): 報酬の少ないロボット操作タスクに対するエンパワーメントに基づく解法
- Authors: Siyu Dai, Wei Xu, Andreas Hofmann, Brian Williams
- Abstract要約: ロボットマニピュレータは、非常にまばらな指示信号しか提供されていなくても、タスクを達成できることを学ぶことが重要である。
本稿では,任意の標準強化学習アルゴリズムに容易に組み込むことができる本質的な動機づけ手法を提案する。
- 参考スコア(独自算出の注目度): 14.937474939057596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to provide adaptive and user-friendly solutions to robotic
manipulation, it is important that the agent can learn to accomplish tasks even
if they are only provided with very sparse instruction signals. To address the
issues reinforcement learning algorithms face when task rewards are sparse,
this paper proposes an intrinsic motivation approach that can be easily
integrated into any standard reinforcement learning algorithm and can allow
robotic manipulators to learn useful manipulation skills with only sparse
extrinsic rewards. Through integrating and balancing empowerment and curiosity,
this approach shows superior performance compared to other state-of-the-art
intrinsic exploration approaches during extensive empirical testing.
Qualitative analysis also shows that when combined with diversity-driven
intrinsic motivations, this approach can help manipulators learn a set of
diverse skills which could potentially be applied to other more complicated
manipulation tasks and accelerate their learning process.
- Abstract(参考訳): ロボット操作に対して適応的かつユーザフレンドリなソリューションを提供するためには,非常に疎い指示信号しか提供されていない場合でも,エージェントがタスクを達成できることが重要である。
タスク報酬が不足している場合に直面する課題強化学習アルゴリズムに対処するため,本研究では,任意の標準的な強化学習アルゴリズムに容易に組み込むことができ,ロボットマニピュレータによる操作スキルの習得を可能にする本質的な動機づけ手法を提案する。
エンパワーメントと好奇心の統合とバランスをとることで、この手法は他の最先端の内在的な探索手法よりも優れた性能を示す。
質的分析はまた、多様性を主体とする本質的動機付けと組み合わせることで、このアプローチはマニピュレータがより複雑な操作タスクに適用可能な多様なスキルセットを学習し、学習プロセスを加速するのに役立つことを示している。
関連論文リスト
- SLIM: Skill Learning with Multiple Critics [8.645929825516818]
自己指導型スキル学習は、環境の基盤となるダイナミクスを活用する有用な行動を取得することを目的としている。
相互情報に基づく潜在変数モデルは、このタスクでは成功したが、ロボット操作の文脈では依然として苦戦している。
SLIMは,ロボット操作に特化して,スキル発見のための多批判学習手法である。
論文 参考訳(メタデータ) (2024-02-01T18:07:33Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - RObotic MAnipulation Network (ROMAN) $\unicode{x2013}$ Hybrid
Hierarchical Learning for Solving Complex Sequential Tasks [70.69063219750952]
ロボットマニピュレーションネットワーク(ROMAN)のハイブリッド階層型学習フレームワークを提案する。
ROMANは、行動クローニング、模倣学習、強化学習を統合することで、タスクの汎用性と堅牢な障害回復を実現する。
実験結果から,これらの専門的な操作専門家の組織化と活性化により,ROMANは高度な操作タスクの長いシーケンスを達成するための適切なシーケンシャルなアクティベーションを生成することがわかった。
論文 参考訳(メタデータ) (2023-06-30T20:35:22Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Unsupervised Reinforcement Learning for Transferable Manipulation Skill
Discovery [22.32327908453603]
ロボット工学における現在の強化学習(RL)は、しばしば新しい下流タスクへの一般化の難しさを経験する。
本稿では,タスク固有の報酬にアクセスできることなく,タスクに依存しない方法でエージェントを事前訓練するフレームワークを提案する。
提案手法は,最も多様なインタラクション動作を実現し,下流タスクのサンプル効率を大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-04-29T06:57:46Z) - Divide & Conquer Imitation Learning [75.31752559017978]
模倣学習は学習プロセスをブートストラップするための強力なアプローチである。
本稿では,専門的軌道の状態から複雑なロボットタスクを模倣する新しいアルゴリズムを提案する。
提案手法は,非ホロノミックナビゲーションタスクを模倣し,非常に高いサンプル効率で複雑なロボット操作タスクにスケールすることを示す。
論文 参考訳(メタデータ) (2022-04-15T09:56:50Z) - SKID RAW: Skill Discovery from Raw Trajectories [23.871402375721285]
すべてのスキルではなく、完全なタスクの実行を示すことが望ましい。
軌跡を反復パターンに分割することを同時に学習する新しい手法を提案する。
このアプローチは、スキルのシーケンスを理解するのに使用できるスキルコンディショニングを学習する。
論文 参考訳(メタデータ) (2021-03-26T17:27:13Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。