論文の概要: Weakly Supervised Disentangled Representation for Goal-conditioned
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2202.13624v1
- Date: Mon, 28 Feb 2022 09:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:29:29.372149
- Title: Weakly Supervised Disentangled Representation for Goal-conditioned
Reinforcement Learning
- Title(参考訳): ゴール条件強化学習のための弱教師付きアンタングル表現
- Authors: Zhifeng Qian, Mingyu You, Hongjun Zhou, Bin He
- Abstract要約: 本稿では,サンプル効率の向上と政策一般化を目的としたスキル学習フレームワークDR-GRLを提案する。
本稿では,解釈可能かつ制御可能な表現を学習するための空間変換オートエンコーダ(STAE)を提案する。
DR-GRLは, 試料効率と政策一般化において, 従来の手法よりも有意に優れていたことを実証的に実証した。
- 参考スコア(独自算出の注目度): 15.698612710580447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Goal-conditioned reinforcement learning is a crucial yet challenging
algorithm which enables agents to achieve multiple user-specified goals when
learning a set of skills in a dynamic environment. However, it typically
requires millions of the environmental interactions explored by agents, which
is sample-inefficient. In the paper, we propose a skill learning framework
DR-GRL that aims to improve the sample efficiency and policy generalization by
combining the Disentangled Representation learning and Goal-conditioned visual
Reinforcement Learning. In a weakly supervised manner, we propose a Spatial
Transform AutoEncoder (STAE) to learn an interpretable and controllable
representation in which different parts correspond to different object
attributes (shape, color, position). Due to the high controllability of the
representations, STAE can simply recombine and recode the representations to
generate unseen goals for agents to practice themselves. The manifold structure
of the learned representation maintains consistency with the physical position,
which is beneficial for reward calculation. We empirically demonstrate that
DR-GRL significantly outperforms the previous methods in sample efficiency and
policy generalization. In addition, DR-GRL is also easy to expand to the real
robot.
- Abstract(参考訳): 目標条件強化学習(goal-conditioned reinforcement learning)は,動的環境におけるスキルセットの学習において,エージェントが複数のユーザ特定目標を達成可能にする,極めて困難なアルゴリズムである。
しかし、通常、サンプル非効率なエージェントによって探索される数百万の環境相互作用を必要とする。
本稿では,Distangled Representation LearningとGoal-conditioned visual Reinforcement Learningを組み合わせることで,サンプル効率の向上と政策一般化を目的としたスキル学習フレームワークDR-GRLを提案する。
本稿では,空間変換オートエンコーダ(stae)を用いて,異なる部品が異なる対象属性(形状,色,位置)に対応するような解釈可能かつ制御可能な表現を学習する。
表現の制御性が高いため、STAEは単に表現を再結合して再コードし、エージェントが自分自身で実行するための見知らぬ目標を生成することができる。
学習された表現の多様体構造は、報酬計算に有利な物理的位置との整合性を維持する。
我々は,dr-grlがサンプル効率と政策の一般化において,これまでの方法を大きく上回っていることを実証的に示す。
さらに、DR-GRLは本物のロボットにも容易に拡張できる。
関連論文リスト
- DEAR: Disentangled Environment and Agent Representations for Reinforcement Learning without Reconstruction [4.813546138483559]
強化学習(RL)アルゴリズムは視覚的な観察からロボット制御タスクを学習することができるが、大量のデータを必要とすることが多い。
本稿では,その形状に関するエージェントの知識が,視覚的RL法のサンプル効率を向上させる方法について検討する。
本稿では,エージェントのセグメンテーションマスクを監督対象とする,分散環境とエージェント表現という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-30T09:15:21Z) - Improving Reinforcement Learning Efficiency with Auxiliary Tasks in
Non-Visual Environments: A Comparison [0.0]
本研究は,低次元非視覚的観察のための唯一の疎結合表現学習法である,我々の知識を最大限に活用して,一般的な補助課題と比較する。
その結果, 十分複雑な環境下では, 補助的タスクによる表現学習は, 性能向上にのみ寄与することがわかった。
論文 参考訳(メタデータ) (2023-10-06T13:22:26Z) - Goal Space Abstraction in Hierarchical Reinforcement Learning via
Reachability Analysis [0.0]
本研究では,環境状態の集合を抽象化する創発的表現によるサブゴール発見のための発達機構を提案する。
我々は、この表現をポリシーとともに徐々に学習し、それをナビゲーションタスクで評価して、学習した表現が解釈可能であり、結果としてデータ効率が向上することを示すHRLアルゴリズムを作成する。
論文 参考訳(メタデータ) (2023-09-12T06:53:11Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Discovering Generalizable Spatial Goal Representations via Graph-based
Active Reward Learning [17.58129740811116]
我々は、報酬学習アプローチ、グラフベースの等価マッピング(GEM)を提案する。
GEMは、オブジェクト間の重要な空間関係を示すグラフと、グラフの各エッジに対する状態同値写像による空間目標仕様を表す。
GEMは,学習目標表現の高次ベースラインに対する一般化性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-11-24T18:59:06Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - Variational Empowerment as Representation Learning for Goal-Based
Reinforcement Learning [114.07623388322048]
本稿では,標準目標条件付きRL (GCRL) を目的変動エンパワーメントによってカプセル化する方法について論じる。
我々の研究は、ゴールベースRLで表現学習技術を評価し、分析し、開発する新しい基礎を築いた。
論文 参考訳(メタデータ) (2021-06-02T18:12:26Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。