論文の概要: Learning how to Interact with a Complex Interface using Hierarchical
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2204.10374v1
- Date: Thu, 21 Apr 2022 19:07:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 14:28:12.266368
- Title: Learning how to Interact with a Complex Interface using Hierarchical
Reinforcement Learning
- Title(参考訳): 階層型強化学習による複雑なインタフェースとのインタラクションの学習
- Authors: Gheorghe Comanici, Amelia Glaese, Anita Gergely, Daniel Toyama,
Zafarali Ahmed, Tyler Jackson, Philippe Hamel, Doina Precup
- Abstract要約: 階層強化学習(HRL)は、対話型エージェントが複雑な問題をサブタスクの階層に分解することを可能にする。
複雑なインタフェースと対話する適切な方法を学ぶための階層的分解の有用性について検討する。
- 参考スコア(独自算出の注目度): 38.51668090813733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical Reinforcement Learning (HRL) allows interactive agents to
decompose complex problems into a hierarchy of sub-tasks. Higher-level tasks
can invoke the solutions of lower-level tasks as if they were primitive
actions. In this work, we study the utility of hierarchical decompositions for
learning an appropriate way to interact with a complex interface. Specifically,
we train HRL agents that can interface with applications in a simulated Android
device. We introduce a Hierarchical Distributed Deep Reinforcement Learning
architecture that learns (1) subtasks corresponding to simple finger gestures,
and (2) how to combine these gestures to solve several Android tasks. Our
approach relies on goal conditioning and can be used more generally to convert
any base RL agent into an HRL agent. We use the AndroidEnv environment to
evaluate our approach. For the experiments, the HRL agent uses a distributed
version of the popular DQN algorithm to train different components of the
hierarchy. While the native action space is completely intractable for simple
DQN agents, our architecture can be used to establish an effective way to
interact with different tasks, significantly improving the performance of the
same DQN agent over different levels of abstraction.
- Abstract(参考訳): 階層強化学習(HRL)は、対話型エージェントが複雑な問題をサブタスクの階層に分解することを可能にする。
高レベルタスクは、プリミティブアクションであるかのように低レベルタスクのソリューションを呼び出すことができる。
本研究では,複雑なインタフェースと対話する適切な方法を学ぶための階層分解の有用性について検討する。
具体的には,シミュレーションandroidデバイス上でアプリケーションとインターフェース可能なhrlエージェントをトレーニングする。
我々は,(1)単純な指ジェスチャーに対応するサブタスクを学習する階層型分散深層強化学習アーキテクチャを導入し,(2)これらのジェスチャーを組み合わせて複数のAndroidタスクを解く方法を提案する。
我々の手法はゴール条件付けに依存しており、任意のベースRLエージェントをHRLエージェントに変換するためにより一般的に使用できる。
AndroidEnv環境を使ってアプローチを評価します。
実験では、HRLエージェントは人気のあるDQNアルゴリズムの分散バージョンを使用して、階層の異なるコンポーネントをトレーニングする。
ネイティブアクション空間は、単純なDQNエージェントに対して完全に抽出可能であるが、我々のアーキテクチャは、異なるタスクと対話する効果的な方法を確立するために使用することができ、異なるレベルの抽象化よりも、同じDQNエージェントの性能を著しく向上させることができる。
関連論文リスト
- Guiding Multi-agent Multi-task Reinforcement Learning by a Hierarchical Framework with Logical Reward Shaping [16.5526277899717]
本研究の目的は,論理報酬形成を伴う多エージェント協調アルゴリズムを設計することである。
Minecraftのような環境下で様々な種類のタスクで実験が行われてきた。
論文 参考訳(メタデータ) (2024-11-02T09:03:23Z) - Agents meet OKR: An Object and Key Results Driven Agent System with
Hierarchical Self-Collaboration and Self-Evaluation [25.308341461293857]
OKR-Agentは、タスク解決におけるLarge Language Models(LLM)の機能を強化するように設計されている。
我々のフレームワークには、階層オブジェクトとキー結果の生成とマルチレベル評価という、2つの新しいモジュールが含まれています。
論文 参考訳(メタデータ) (2023-11-28T06:16:30Z) - Hierarchical Reinforcement Learning with Opponent Modeling for
Distributed Multi-agent Cooperation [13.670618752160594]
深層強化学習(DRL)はエージェントと環境の相互作用を通じて多エージェント協調に有望なアプローチを提供する。
従来のDRLソリューションは、ポリシー探索中に連続的なアクション空間を持つ複数のエージェントの高次元に悩まされる。
効率的な政策探索のための高レベル意思決定と低レベル個別制御を用いた階層型強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-25T19:09:29Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Environment Generation for Zero-Shot Compositional Reinforcement
Learning [105.35258025210862]
環境構成設計(CoDE)は、ジェネレータエージェントを訓練し、エージェントの現在のスキルレベルに合わせて一連の構成タスクを自動的に構築する。
我々は,複数のページや部屋からなる環境を生成することを学び,それらの環境において複雑なタスクを広範囲にこなせるRLエージェントを訓練する。
CoDEは最強のベースラインよりも4倍高い成功率を示し、3500のプリミティブタスクで学んだ実際のWebサイトのパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-01-21T21:35:01Z) - Room Clearance with Feudal Hierarchical Reinforcement Learning [2.867517731896504]
本稿では,RL研究を軍事分析に有用な方向に進めるためのシナリオ構築ツールとして,新しいシミュレーション環境「it」を紹介した。
そこでは、青いエージェントのチームが建物を通り抜け、すべての部屋が敵のレッドエージェントから取り除かれるようにしなければなりません。
封建的階層型RLのマルチエージェント版を実装し、より上位の指揮官が命令を下級の複数のエージェントに送信するコマンド階層を導入する。
このような方法でタスクを壊すことで、私たちはそれを可能にすることに気付きました。
論文 参考訳(メタデータ) (2021-05-24T15:05:58Z) - Forgetful Experience Replay in Hierarchical Reinforcement Learning from
Demonstrations [55.41644538483948]
本稿では,複雑な視覚環境において,エージェントが低品質な実演を行えるようにするためのアプローチの組み合わせを提案する。
提案した目標指向のリプレイバッファ構築により,エージェントはデモにおいて複雑な階層的タスクを解くためのサブゴールを自動的に強調することができる。
私たちのアルゴリズムに基づくこのソリューションは、有名なMineRLコンペティションのすべてのソリューションを破り、エージェントがMinecraft環境でダイヤモンドをマイニングすることを可能にする。
論文 参考訳(メタデータ) (2020-06-17T15:38:40Z) - MTL-NAS: Task-Agnostic Neural Architecture Search towards
General-Purpose Multi-Task Learning [71.90902837008278]
汎用マルチタスク学習(GP-MTL)にニューラルアーキテクチャサーチ(NAS)を導入することを提案する。
異なるタスクの組み合わせに対応するため、GP-MTLネットワークを単一タスクのバックボーンに分割する。
また,探索されたアーキテクチャ間の性能ギャップを埋める単一ショット勾配に基づく探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-31T09:49:14Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。