論文の概要: Generalization in Text-based Games via Hierarchical Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2109.09968v1
- Date: Tue, 21 Sep 2021 05:27:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:37:40.049157
- Title: Generalization in Text-based Games via Hierarchical Reinforcement
Learning
- Title(参考訳): 階層強化学習によるテキストゲームにおける一般化
- Authors: Yunqiu Xu, Meng Fang, Ling Chen, Yali Du and Chengqi Zhang
- Abstract要約: 本稿では,知識グラフに基づくRLエージェントを基盤とした階層型フレームワークを提案する。
高いレベルでは、メタポリシーが実行され、ゲーム全体をテキストゴールによって指定されたサブタスクのセットに分解する。
低レベルにおいては、目標条件付き強化学習を行うためにサブ政治が実行される。
- 参考スコア(独自算出の注目度): 42.70991837415775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning provides a promising approach for text-based
games in studying natural language communication between humans and artificial
agents. However, the generalization still remains a big challenge as the agents
depend critically on the complexity and variety of training tasks. In this
paper, we address this problem by introducing a hierarchical framework built
upon the knowledge graph-based RL agent. In the high level, a meta-policy is
executed to decompose the whole game into a set of subtasks specified by
textual goals, and select one of them based on the KG. Then a sub-policy in the
low level is executed to conduct goal-conditioned reinforcement learning. We
carry out experiments on games with various difficulty levels and show that the
proposed method enjoys favorable generalizability.
- Abstract(参考訳): 深層強化学習は、人間と人工エージェント間の自然言語コミュニケーションを研究するテキストベースのゲームに有望なアプローチを提供する。
しかし、エージェントは複雑さと様々なトレーニングタスクに依存するため、一般化は依然として大きな課題である。
本稿では,知識グラフベースのrlエージェントを基盤とした階層的フレームワークを導入することで,この問題に対処する。
高レベルでは、メタポリシーが実行され、ゲーム全体をテキストゴールで指定されたサブタスクのセットに分解し、KGに基づいてその1つを選択する。
そして、低レベルのサブポリシーを実行し、目標条件強化学習を行う。
様々な難易度を持つゲームにおいて実験を行い,提案手法が良好な一般化性を有することを示す。
関連論文リスト
- Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Entity Divider with Language Grounding in Multi-Agent Reinforcement
Learning [28.619845209653274]
マルチエージェント設定におけるポリシーの一般化を促進するための自然言語の利用について検討する。
マルチエージェント強化学習, エンティティディバイザ(EnDi)における言語基盤構築のための新しい枠組みを提案する。
EnDiは、エージェントがエンティティレベルで独立してサブゴナル分割を学習し、関連するエンティティに基づいて環境に作用することを可能にする。
論文 参考訳(メタデータ) (2022-10-25T11:53:52Z) - Deep Reinforcement Learning with Stacked Hierarchical Attention for
Text-based Games [64.11746320061965]
自然言語の文脈におけるインタラクティブなシミュレーションであるテキストベースゲームの強化学習について検討する。
エージェントの動作が解釈可能な推論手順によって生成され、支援されるように、意思決定のための知識グラフを用いた明示的な推論を行うことを目指している。
提案手法を多数の人為的ベンチマークゲームで広範囲に評価し,本手法が既存のテキストベースエージェントよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-10-22T12:40:22Z) - How to Avoid Being Eaten by a Grue: Structured Exploration Strategies
for Textual Worlds [16.626095390308304]
質問に答えることで世界の知識グラフを構築することを学習するエージェントであるQ*BERTを紹介する。
MC!Q*BERTは知識グラフに基づく本質的なモチベーションを用いてボトルネックを検出するエージェントである。
本研究は,9つのテキストゲームにおいて,我々の手法が現状よりも優れていることを示すアブレーション研究と結果を提示する。
論文 参考訳(メタデータ) (2020-06-12T18:24:06Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z) - Learning Dynamic Belief Graphs to Generalize on Text-Based Games [55.59741414135887]
テキストベースのゲームをプレイするには、自然言語処理とシーケンシャルな意思決定のスキルが必要である。
本研究では,原文からエンドツーエンドに学習したグラフ構造化表現を用いて,エージェントがテキストベースのゲームでどのように計画・一般化できるかを検討する。
論文 参考訳(メタデータ) (2020-02-21T04:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。