論文の概要: Ask Before You Act: Generalising to Novel Environments by Asking
Questions
- arxiv url: http://arxiv.org/abs/2209.04665v1
- Date: Sat, 10 Sep 2022 13:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:26:47.098321
- Title: Ask Before You Act: Generalising to Novel Environments by Asking
Questions
- Title(参考訳): 行動の前に聞く - 質問による新しい環境への一般化
- Authors: Ross Murphy, Sergey Mosesov, Javier Leguina Peral, Thymo ter Doest
- Abstract要約: 本稿では,RLエージェントが自然言語の質問を学習し,その環境を理解するためのツールとして活用する能力について検討する。
私たちは、このエージェントに"yes-no"質問を全知のOracleに尋ねる機能を提供することで、これを実現しています。
本研究では,質問できないベースラインエージェントと比較して,一般化性能が著しく向上するのを観察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving temporally-extended tasks is a challenge for most reinforcement
learning (RL) algorithms [arXiv:1906.07343]. We investigate the ability of an
RL agent to learn to ask natural language questions as a tool to understand its
environment and achieve greater generalisation performance in novel,
temporally-extended environments. We do this by endowing this agent with the
ability of asking "yes-no" questions to an all-knowing Oracle. This allows the
agent to obtain guidance regarding the task at hand, while limiting the access
to new information. To study the emergence of such natural language questions
in the context of temporally-extended tasks we first train our agent in a
Mini-Grid environment. We then transfer the trained agent to a different,
harder environment. We observe a significant increase in generalisation
performance compared to a baseline agent unable to ask questions. Through
grounding its understanding of natural language in its environment, the agent
can reason about the dynamics of its environment to the point that it can ask
new, relevant questions when deployed in a novel environment.
- Abstract(参考訳): 時間拡張タスクを解くことは、ほとんどの強化学習(RL)アルゴリズム [arXiv:1906.07343] の課題である。
本稿では,自然言語質問を学習するrlエージェントの環境理解ツールとしての能力について検討し,新たな時間的拡張環境における一般化性能の向上について検討する。
私たちは、このエージェントに"yes-no"の質問を全知のオラクルに依頼することで、これを行います。
これによりエージェントは、新しい情報へのアクセスを制限しながら、手元のタスクに関するガイダンスを得ることができる。
時間的拡張タスクの文脈におけるこのような自然言語質問の出現を研究するために,まずミニグリッド環境でエージェントを訓練する。
そして、訓練されたエージェントを別のより難しい環境に移します。
質問できないベースラインエージェントと比較して,一般化性能は著しく向上している。
エージェントは、その環境における自然言語の理解を基盤として、その環境のダイナミクスを推論し、新しい環境に配備されたときに、新しい、関連する質問をすることができる。
関連論文リスト
- A Survey on Complex Tasks for Goal-Directed Interactive Agents [60.53915548970061]
この調査は、目標指向の対話エージェントを評価するための、関連するタスクと環境をコンパイルする。
関連リソースの最新のコンパイルは、プロジェクトのWebサイトにある。
論文 参考訳(メタデータ) (2024-09-27T08:17:53Z) - Analyzing Human Questioning Behavior and Causal Curiosity through Natural Queries [91.70689724416698]
NatQuest(ナットクエスト)は、3つの異なるソースから自然発生の質問13,500件のコレクションである。
分析の結果,データセット内には因果的疑問(最大42%)が有意な存在であることが判明した。
論文 参考訳(メタデータ) (2024-05-30T17:55:28Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - Efficient Open-world Reinforcement Learning via Knowledge Distillation
and Autonomous Rule Discovery [5.680463564655267]
ルール駆動のディープラーニングエージェント(RDQ)がフレームワークの実装の可能な1つだ。
RDQは,世界との対話において,タスク固有のルールを抽出することに成功した。
実験では,RDQエージェントはベースラインエージェントよりも新規性に非常に耐性があることが示されている。
論文 参考訳(メタデータ) (2023-11-24T04:12:50Z) - Keeping the Questions Conversational: Using Structured Representations
to Resolve Dependency in Conversational Question Answering [26.997542897342164]
本稿では,中間表現を会話の手がかりとして捉え,生成するための新しいフレームワークCONVSR(CONVQA using Structured Representations)を提案する。
我々はQuACとCANARDのデータセット上でモデルをテストし、提案するフレームワークが標準的な質問書き直しモデルよりも優れたF1スコアを達成できることを実験結果により示す。
論文 参考訳(メタデータ) (2023-04-14T13:42:32Z) - DANLI: Deliberative Agent for Following Natural Language Instructions [9.825482203664963]
本稿では、過去の経験から得られた神経的・象徴的表現に基づいて推論と計画を適用するニューロシンボリック・リベレティブ・エージェントを提案する。
TEAChベンチマークでは,リアクティブベースラインよりも70%以上の改善が達成されている。
論文 参考訳(メタデータ) (2022-10-22T15:57:01Z) - Learning to Query Internet Text for Informing Reinforcement Learning
Agents [36.69880704465014]
野生で発見された自然言語から有用な情報を抽出する問題に取り組む。
私たちは、強化学習エージェントを訓練して、これらのソースを人間としてクエリする方法を学びます。
提案手法は,強化学習環境において,報酬を最大化するためにクエリを正しく学習することを示す。
論文 参考訳(メタデータ) (2022-05-25T23:07:10Z) - Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language [121.56329458876655]
グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
論文 参考訳(メタデータ) (2022-05-12T14:20:31Z) - Interactive Grounded Language Understanding in a Collaborative
Environment: IGLU 2021 [58.196738777207315]
協調環境における対話型接地言語理解のためのemphIGLUを提案する。
競争の主目的は、対話型エージェントをいかにして構築するかという問題にアプローチすることであり、協調環境において、接地された自然言語命令を提供しながらタスクの解決を学ぶことである。
論文 参考訳(メタデータ) (2022-05-05T01:20:09Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。