論文の概要: Situated Dialogue Learning through Procedural Environment Generation
- arxiv url: http://arxiv.org/abs/2110.03262v1
- Date: Thu, 7 Oct 2021 08:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:10:48.792227
- Title: Situated Dialogue Learning through Procedural Environment Generation
- Title(参考訳): 手続き型環境生成による逐次対話学習
- Authors: Prithviraj Ammanabrolu, Renee Jia, Mark O. Riedl
- Abstract要約: 目標駆動型エージェントに、生成されたカリキュラムをトレーニングすることで、対話的に行動し、位置した環境で話すように教える。
アブレーション研究では、分布の尾部から学習する方法が、より高度な一般化能力をもたらすことが示されている。
- 参考スコア(独自算出の注目度): 14.117921448623342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We teach goal-driven agents to interactively act and speak in situated
environments by training on generated curriculums. Our agents operate in LIGHT
(Urbanek et al. 2019) -- a large-scale crowd-sourced fantasy text adventure
game wherein an agent perceives and interacts with the world through textual
natural language. Goals in this environment take the form of character-based
quests, consisting of personas and motivations. We augment LIGHT by learning to
procedurally generate additional novel textual worlds and quests to create a
curriculum of steadily increasing difficulty for training agents to achieve
such goals. In particular, we measure curriculum difficulty in terms of the
rarity of the quest in the original training distribution -- an easier
environment is one that is more likely to have been found in the unaugmented
dataset. An ablation study shows that this method of learning from the tail of
a distribution results in significantly higher generalization abilities as
measured by zero-shot performance on never-before-seen quests.
- Abstract(参考訳): ゴール駆動エージェントに,生成したカリキュラムをトレーニングすることで,現場で対話的に行動し,話すように指導する。
私たちのエージェントはlight(urbanek et al. 2019) — クラウドソースの大規模なファンタジーテキストアドベンチャーゲームで、エージェントはテキスト自然言語を通じて世界を理解し、対話します。
この環境のゴールは、ペルソナとモチベーションからなるキャラクタベースのクエストの形を取る。
我々は、LIGHTを手続き的に新しいテキストの世界を創出することを学び、その目標を達成するための訓練員の難しさを着実に増すカリキュラムを作成する。
特に、元のトレーニングディストリビューションにおけるクエストの希少性の観点から、カリキュラムの難しさを測定します。
アブレーション実験により, 分布の尾部から学習する手法は, ゼロショット性能で測定したnever-before-seenクエストよりも有意に高い一般化能力が得られることがわかった。
関連論文リスト
- Text-Aware Diffusion for Policy Learning [8.32790576855495]
本研究では、事前訓練された凍結されたテキスト条件付き拡散モデルを用いて、高密度ゼロショット報酬信号をテキスト整合ポリシー学習に利用する、政策学習用テキスト認識拡散(TADPoLe)を提案する。
TADPoLe は,Humanoid と Dog の両環境において,自然言語によって規定される新たな目標達成と連続的な移動行動の政策を学習可能であることを示す。
論文 参考訳(メタデータ) (2024-07-02T03:08:20Z) - Interactive Grounded Language Understanding in a Collaborative
Environment: IGLU 2021 [58.196738777207315]
協調環境における対話型接地言語理解のためのemphIGLUを提案する。
競争の主目的は、対話型エージェントをいかにして構築するかという問題にアプローチすることであり、協調環境において、接地された自然言語命令を提供しながらタスクの解決を学ぶことである。
論文 参考訳(メタデータ) (2022-05-05T01:20:09Z) - Perceiving the World: Question-guided Reinforcement Learning for
Text-based Games [64.11746320061965]
本稿では,環境に関する質問に答えることで,タスクやプーンアクションを自動的に分解する世界認識モジュールを提案する。
次に、強化学習から言語学習を分離する2段階学習フレームワークを提案し、サンプル効率をさらに向上させる。
論文 参考訳(メタデータ) (2022-03-20T04:23:57Z) - NeurIPS 2021 Competition IGLU: Interactive Grounded Language
Understanding in a Collaborative Environment [71.11505407453072]
協調環境における対話型接地言語理解(IGLU: Interactive Grounded Language Understanding)を提案する。
競争の主目的は、対話型エージェントをいかにして構築するかという問題にアプローチすることであり、協調環境において、接地された自然言語命令を提供しながらタスクの解決を学ぶことである。
この研究課題は、自然言語理解・生成(NLU/G)と強化学習(RL)という、NeurIPSコミュニティと密接に関連している2つの分野に自然に関連している。
論文 参考訳(メタデータ) (2021-10-13T07:13:44Z) - Generalization in Text-based Games via Hierarchical Reinforcement
Learning [42.70991837415775]
本稿では,知識グラフに基づくRLエージェントを基盤とした階層型フレームワークを提案する。
高いレベルでは、メタポリシーが実行され、ゲーム全体をテキストゴールによって指定されたサブタスクのセットに分解する。
低レベルにおいては、目標条件付き強化学習を行うためにサブ政治が実行される。
論文 参考訳(メタデータ) (2021-09-21T05:27:33Z) - Learning Knowledge Graph-based World Models of Textual Environments [16.67845396797253]
本研究は,テキストベースのゲーム環境のワールドモデル構築に焦点をあてる。
1)知識グラフとして世界を表現する際のエージェントの行動によって引き起こされる世界の変化を予測し,(2)世界での操作に必要な文脈的に関連する自然言語行動の集合を生成する。
論文 参考訳(メタデータ) (2021-06-17T15:45:54Z) - Situated Language Learning via Interactive Narratives [16.67845396797253]
本稿では,文脈的関連のある自然言語を理解し,生成する能力を持つ学習エージェントの活用方法について考察する。
このようなエージェントを作成するための2つの重要なコンポーネントは、相互作用と環境接地です。
テキストゲームのパズルのような構造と自然言語状態とアクション空間が組み合わさったユニークな課題について論じる。
論文 参考訳(メタデータ) (2021-03-18T01:55:16Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Pre-trained Word Embeddings for Goal-conditional Transfer Learning in
Reinforcement Learning [0.0]
本稿では,事前訓練されたタスク非依存言語モデルによって,目標条件付きRLエージェントをより効率的にする方法について述べる。
私たちは、異なる関連するタスク間の伝達学習を容易にすることで、これを実現します。
論文 参考訳(メタデータ) (2020-07-10T06:42:00Z) - Wandering Within a World: Online Contextualized Few-Shot Learning [62.28521610606054]
我々は、数ショット学習の標準フレームワークをオンライン環境に拡張することで、一般的な人間と機械学習環境のギャップを埋めることを目指している。
本研究では,世界中をさまようエージェントの視覚体験を模倣した大規模な屋内画像に基づく,新しいプロトタイプによる数ショット学習を提案する。
論文 参考訳(メタデータ) (2020-07-09T04:05:04Z) - Learning with AMIGo: Adversarially Motivated Intrinsic Goals [63.680207855344875]
AMIGoは、Adversarially Motivated Intrinsic Goalsを提案するゴール生成教師である。
提案手法は, 提案する目標の自然なカリキュラムを生成し, エージェントが究極的には, 手続き的に生成する課題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。