論文の概要: Transferring Knowledge for Reinforcement Learning in Contact-Rich
Manipulation
- arxiv url: http://arxiv.org/abs/2210.02891v1
- Date: Mon, 19 Sep 2022 10:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 17:19:18.702479
- Title: Transferring Knowledge for Reinforcement Learning in Contact-Rich
Manipulation
- Title(参考訳): コンタクトリッチ操作における強化学習のための知識伝達
- Authors: Quantao Yang, Johannes A. Stork, and Todor Stoyanov
- Abstract要約: 複数のスキルの前提を活かして、類似したタスクのファミリー内で知識を伝達するという課題に対処する。
提案手法は, 先行タスク毎の実証軌道から, スキル埋め込みを表す潜在行動空間を学習する。
我々は,ペグ・イン・ホール・イン・イン・イン・イン・イン・イン・イン・イン・イン・インサート・タスクのセットを用いて本手法の評価を行い,トレーニング中に遭遇したことのない新しいタスクへのより良い一般化を実証した。
- 参考スコア(独自算出の注目度): 10.219833196479142
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In manufacturing, assembly tasks have been a challenge for learning
algorithms due to variant dynamics of different environments. Reinforcement
learning (RL) is a promising framework to automatically learn these tasks, yet
it is still not easy to apply a learned policy or skill, that is the ability of
solving a task, to a similar environment even if the deployment conditions are
only slightly different. In this paper, we address the challenge of
transferring knowledge within a family of similar tasks by leveraging multiple
skill priors. We propose to learn prior distribution over the specific skill
required to accomplish each task and compose the family of skill priors to
guide learning the policy for a new task by comparing the similarity between
the target task and the prior ones. Our method learns a latent action space
representing the skill embedding from demonstrated trajectories for each prior
task. We have evaluated our method on a set of peg-in-hole insertion tasks and
demonstrate better generalization to new tasks that have never been encountered
during training.
- Abstract(参考訳): 製造において、組立タスクは異なる環境の変動力学のためにアルゴリズムを学ぶことの難しさであった。
強化学習(rl)は、これらのタスクを自動的に学習する有望なフレームワークだが、デプロイメント条件がわずかに異なる場合でも、タスクを解決する能力である学習されたポリシやスキルを、同様の環境に適用するのは容易ではない。
本稿では,複数のスキルを活かして,類似したタスクのファミリー内で知識を伝達するという課題に対処する。
本稿では,各タスクの達成に必要な特定のスキルに対する事前分布を学習し,各タスクと先行タスクの類似性を比較することにより,新しいタスクの方針学習を指導するスキルファミリーを構成することを提案する。
提案手法は,先行タスク毎の実証軌道から,スキル埋め込みを表す潜在行動空間を学習する。
我々は本手法をpeg-in-hole挿入タスクのセットで評価し,訓練中に遭遇したことのない新しいタスクへのより良い一般化を示す。
関連論文リスト
- Reinforcement Learning with Success Induced Task Prioritization [68.8204255655161]
本稿では,自動カリキュラム学習のためのフレームワークであるSuccess induced Task Prioritization (SITP)を紹介する。
アルゴリズムはエージェントに最速の学習を提供するタスクの順序を選択する。
我々は,SITPが他のカリキュラム設計手法と一致するか,あるいは上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-30T12:32:43Z) - Active Task Randomization: Learning Robust Skills via Unsupervised
Generation of Diverse and Feasible Tasks [37.73239471412444]
我々は、教師なしのトレーニングタスクの生成を通じて、堅牢なスキルを学ぶアプローチであるActive Task Randomization (ATR)を導入する。
ATRは、タスクの多様性と実現可能性のバランスをとることで、堅牢なスキルを学ぶために、初期環境状態と操作目標からなる適切なタスクを選択する。
本研究では,視覚的入力に基づく逐次操作問題の解決のために,タスクプランナが学習スキルを構成することを実証する。
論文 参考訳(メタデータ) (2022-11-11T11:24:55Z) - Saliency-Regularized Deep Multi-Task Learning [7.3810864598379755]
マルチタスク学習は、知識を共有するために複数の学習タスクを強制し、一般化能力を改善する。
現代のディープマルチタスク学習は、潜在機能とタスク共有を共同で学習することができるが、それらはタスク関係において不明瞭である。
本稿では,潜在的特徴と明示的な課題関係を共同で学習するマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-03T20:26:44Z) - Multi-Agent Policy Transfer via Task Relationship Modeling [28.421365805638953]
我々は、タスク間の共通構造を発見し、活用し、より効率的な転送を試みる。
本稿では,タスクの共通空間として効果に基づくタスク表現を学習する。
その結果,提案手法は,学習した協調知識をいくつかのソースタスクの学習後に新しいタスクに伝達するのに役立つ。
論文 参考訳(メタデータ) (2022-03-09T01:49:21Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Continual Learning of a Mixed Sequence of Similar and Dissimilar Tasks [18.679936596282847]
忘れることに対処できる類似タスクと異種タスクの混在を学習する手法は提案されていない。
本稿では,同じネットワーク上で両方のタスクを学習する手法を提案する。
このアルゴリズムは、異なるタスクに対して、忘れることに焦点をあて、類似したタスクに対して、類似したタスクから学んだ知識を選択的に移行して、新しいタスク学習を改善することに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-18T22:37:30Z) - Hierarchical Skills for Efficient Exploration [70.62309286348057]
強化学習において、事前訓練された低レベルスキルは、探索を大幅に促進する可能性がある。
下流タスクの以前の知識は、スキルデザインにおける一般性(きめ細かい制御)と特異性(より高速な学習)の適切なバランスをとるために必要である。
教師なしの方法で様々な複雑さのスキルを習得する階層的スキル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:29:32Z) - Discovering Generalizable Skills via Automated Generation of Diverse
Tasks [82.16392072211337]
本稿では,多種多様なタスクの自動生成による一般化可能なスキルの発見手法を提案する。
教師なしスキル発見の先行研究とは対照的に,本手法では各スキルをトレーニング可能なタスクジェネレータが生成するユニークなタスクとペアリングする。
生成したタスクにおけるロボットの動作に定義されたタスク判別器を共同で訓練し、多様性目標の低いエビデンスを推定する。
学習スキルは階層的な強化学習アルゴリズムで構成され、目に見えない目標タスクを解決する。
論文 参考訳(メタデータ) (2021-06-26T03:41:51Z) - Latent Skill Planning for Exploration and Transfer [49.25525932162891]
本稿では,この2つの手法を1つの強化学習エージェントに統合する方法について検討する。
テスト時の高速適応に部分的償却の考え方を活用する。
私たちは、困難なロコモーションタスクのスイートでデザイン決定のメリットを実演しています。
論文 参考訳(メタデータ) (2020-11-27T18:40:03Z) - Adaptive Procedural Task Generation for Hard-Exploration Problems [78.20918366839399]
ハード探索問題における強化学習を容易にするために,適応手続きタスク生成(APT-Gen)を導入する。
私たちのアプローチの中心は、ブラックボックスの手続き生成モジュールを通じてパラメータ化されたタスク空間からタスクを作成することを学習するタスクジェネレータです。
学習進捗の直接指標がない場合のカリキュラム学習を可能にするために,生成したタスクにおけるエージェントのパフォーマンスと,対象タスクとの類似性をバランスさせてタスクジェネレータを訓練することを提案する。
論文 参考訳(メタデータ) (2020-07-01T09:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。