論文の概要: Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2010.15877v1
- Date: Thu, 29 Oct 2020 18:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:00:29.327803
- Title: Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning
- Title(参考訳): メタ強化学習による難解な知識ベース質問応答
- Authors: Yuncheng Hua, Yuan-Fang Li, Gholamreza Haffari, Guilin Qi and Tongtong
Wu
- Abstract要約: 複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 55.08037694027792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex question-answering (CQA) involves answering complex natural-language
questions on a knowledge base (KB). However, the conventional neural program
induction (NPI) approach exhibits uneven performance when the questions have
different types, harboring inherently different characteristics, e.g.,
difficulty level. This paper proposes a meta-reinforcement learning approach to
program induction in CQA to tackle the potential distributional bias in
questions. Our method quickly and effectively adapts the meta-learned
programmer to new questions based on the most similar questions retrieved from
the training data. The meta-learned policy is then used to learn a good
programming policy, utilizing the trial trajectories and their rewards for
similar questions in the support set. Our method achieves state-of-the-art
performance on the CQA dataset (Saha et al., 2018) while using only five trial
trajectories for the top-5 retrieved questions in each support set, and
metatraining on tasks constructed from only 1% of the training set. We have
released our code at https://github.com/DevinJake/MRL-CQA.
- Abstract(参考訳): 複雑な質問答え(CQA)は、知識ベース(KB)で複雑な自然言語の質問に答えることである。
しかしながら、従来のニューラルプログラム誘導(NPI)アプローチは、質問が異なるタイプを持つ場合、不均一なパフォーマンスを示し、本質的に異なる特徴を持つ。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
本手法は,学習データから得られた最も類似した質問に基づいて,メタ学習したプログラマを新しい質問に迅速かつ効果的に適用する。
メタ学習されたポリシーは、適切なプログラミングポリシーを学ぶのに使われ、サポートセットにおける同様の質問に対する試行的な軌道と報酬を利用する。
提案手法は,CQAデータセット(Saha et al., 2018)において,各サポートセットのトップ5検索質問に対して,5つのトライアルトラジェクトリのみを使用し,トレーニングセットのわずか1%から構築したタスクのメタトレーニングを行う。
コードをhttps://github.com/DevinJake/MRL-CQAでリリースしました。
関連論文リスト
- Generate then Select: Open-ended Visual Question Answering Guided by
World Knowledge [155.81786738036578]
Open-ended Visual Question Answering (VQA)タスクでは、視覚と自然言語の入力をAIモデルが共同で推論する必要がある。
GPT-3のような事前訓練された言語モデル(PLM)がこのタスクに適用され、強力な世界知識源であることが示されている。
我々は,世界的知識によって導かれるジェネレータ選択戦略をデプロイする新しいVQAパイプラインであるRASOを提案する。
論文 参考訳(メタデータ) (2023-05-30T08:34:13Z) - KEPR: Knowledge Enhancement and Plausibility Ranking for Generative
Commonsense Question Answering [11.537283115693432]
本稿では,ジェネレート・Then-Rankパイプラインアーキテクチャに基づく知識向上と可視性ランキング手法を提案する。
具体的には、キーワードのWiktionary Commonsense知識の観点から質問を拡張し、正規化パターンで修正する。
ELECTRAに基づく回答ランキングモデルを構築し、学習中にロジスティック回帰を行う。
論文 参考訳(メタデータ) (2023-05-15T04:58:37Z) - Improving Complex Knowledge Base Question Answering via
Question-to-Action and Question-to-Question Alignment [6.646646618666681]
ALCQAと呼ばれるアライメント強化複雑な質問応答フレームワークを導入する。
質問と各アクションを調整するために質問書き換えモデルをトレーニングし、事前訓練された言語モデルを使用して質問とKGアーティファクトを暗黙的に調整する。
提案手法は,質問と質問のアライメントを通じて,推論段階でトップkに類似した質問応答ペアを検索し,新たな報酬誘導行動列選択戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T08:12:41Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - Calculating Question Similarity is Enough:A New Method for KBQA Tasks [8.056701645706404]
本稿では、事前学習言語モデル(PLM)と知識グラフ(KG)を用いたコーパス生成-検索手法(CGRM)を提案する。
まず,mT5モデルに基づいて,知識マスキング言語モデリングと質問生成という2つの新しい事前学習タスクを設計した。
第2に、一連のルールで知識グラフのトリプルを前処理した後、kT5モデルは、処理されたトリプルに基づいて自然言語QAペアを生成する。
論文 参考訳(メタデータ) (2021-11-15T10:31:46Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Learning to Ask Conversational Questions by Optimizing Levenshtein
Distance [83.53855889592734]
明示的な編集動作によって最小レベンシュテイン距離(MLD)を最適化する強化反復シーケンス編集(RISE)フレームワークを導入する。
RISEは会話の特徴に関連するトークンに注意を払うことができる。
2つのベンチマークデータセットの実験結果から、RISEは最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-30T08:44:19Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Unsupervised Multiple Choices Question Answering: Start Learning from
Basic Knowledge [75.7135212362517]
我々は、ほとんど教師なしの多重選択質問回答(MCQA)の可能性について検討する。
提案手法は RACE のベースラインアプローチよりも優れており,MC500 の教師あり学習手法と同等である。
論文 参考訳(メタデータ) (2020-10-21T13:44:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。