論文の概要: Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language
- arxiv url: http://arxiv.org/abs/2205.06111v1
- Date: Thu, 12 May 2022 14:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 12:31:23.031217
- Title: Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language
- Title(参考訳): 知識を求める - 言語を使って外部知識を問うためのrlエージェントのトレーニング
- Authors: Iou-Jen Liu, Xingdi Yuan, Marc-Alexandre C\^ot\'e, Pierre-Yves
Oudeyer, Alexander G. Schwing
- Abstract要約: グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
- 参考スコア(独自算出の注目度): 121.56329458876655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To solve difficult tasks, humans ask questions to acquire knowledge from
external sources. In contrast, classical reinforcement learning agents lack
such an ability and often resort to exploratory behavior. This is exacerbated
as few present-day environments support querying for knowledge. In order to
study how agents can be taught to query external knowledge via language, we
first introduce two new environments: the grid-world-based Q-BabyAI and the
text-based Q-TextWorld. In addition to physical interactions, an agent can
query an external knowledge source specialized for these environments to gather
information. Second, we propose the "Asking for Knowledge" (AFK) agent, which
learns to generate language commands to query for meaningful knowledge that
helps solve the tasks. AFK leverages a non-parametric memory, a pointer
mechanism and an episodic exploration bonus to tackle (1) a large query
language space, (2) irrelevant information, (3) delayed reward for making
meaningful queries. Extensive experiments demonstrate that the AFK agent
outperforms recent baselines on the challenging Q-BabyAI and Q-TextWorld
environments.
- Abstract(参考訳): 困難な課題を解決するため、人間は外部の情報源から知識を得るよう質問する。
対照的に、古典的な強化学習エージェントはそのような能力がなく、しばしば探索的な行動に頼る。
現在の環境が知識のクエリをサポートすることは少ないため、これはさらに悪化する。
エージェントが言語を介して外部知識をクエリする方法を学習するために,まずグリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldという2つの新しい環境を導入する。
物理的相互作用に加えて、エージェントはこれらの環境に特化した外部知識ソースに問い合わせて情報を集めることができる。
第2に,課題解決を支援する有意義な知識を問合せするための言語コマンドの生成を学習する"Aking for Knowledge"(AFK)エージェントを提案する。
AFKは、(1)大きなクエリ言語空間、(2)無関係情報、(3)意味のあるクエリを作るための遅延報酬に取り組むために、非パラメトリックメモリ、ポインタ機構、およびエピソード探索ボーナスを活用する。
大規模な実験により、AFKエージェントはQ-BabyAIとQ-TextWorld環境の最近のベースラインよりも優れていることが示された。
関連論文リスト
- DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Ask Before You Act: Generalising to Novel Environments by Asking
Questions [0.0]
本稿では,RLエージェントが自然言語の質問を学習し,その環境を理解するためのツールとして活用する能力について検討する。
私たちは、このエージェントに"yes-no"質問を全知のOracleに尋ねる機能を提供することで、これを実現しています。
本研究では,質問できないベースラインエージェントと比較して,一般化性能が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2022-09-10T13:17:21Z) - LaKo: Knowledge-driven Visual Question Answering via Late
Knowledge-to-Text Injection [30.65373229617201]
我々はLate Knowledge-to-text Injectionによる知識駆動型VQA手法であるLaKoを提案する。
外部KGを効果的に組み込むため、三重項をテキストに転送し、遅延注入機構を提案する。
提案手法は,OKVQAデータセットを用いた評価において,最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-07-26T13:29:51Z) - OPERA: Harmonizing Task-Oriented Dialogs and Information Seeking
Experience [87.0233567695073]
会話型AIにおける既存の研究は、主にタスク指向対話(TOD)と質問応答(QA)を別々のタスクとして扱う。
そこで我々は,TODとQAタスクを組み合わせた新たなタスクであるOpen-Book TOD (OB-TOD)を提案する。
我々は,そのタスクに対処するために,明示的で暗黙的な外部知識を適切にアクセス可能な統一モデルOPERAを提案する。
論文 参考訳(メタデータ) (2022-06-24T18:21:26Z) - Learning to Query Internet Text for Informing Reinforcement Learning
Agents [36.69880704465014]
野生で発見された自然言語から有用な情報を抽出する問題に取り組む。
私たちは、強化学習エージェントを訓練して、これらのソースを人間としてクエリする方法を学びます。
提案手法は,強化学習環境において,報酬を最大化するためにクエリを正しく学習することを示す。
論文 参考訳(メタデータ) (2022-05-25T23:07:10Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Question Answering over Knowledge Base using Language Model Embeddings [0.0]
本稿では,知識ベース質問回答タスクにおける事前学習言語モデルの利用に焦点を当てる。
さらに,これらの埋め込みを知識ベースから質問まで,双方向の注意機構で微調整した。
提案手法は,質問事項を表現するためのマルチヘッドアテンション機構を備えた,単純な畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2020-10-17T22:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。