論文の概要: Improving Complex Knowledge Base Question Answering via
Question-to-Action and Question-to-Question Alignment
- arxiv url: http://arxiv.org/abs/2212.13036v1
- Date: Mon, 26 Dec 2022 08:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:29:38.175879
- Title: Improving Complex Knowledge Base Question Answering via
Question-to-Action and Question-to-Question Alignment
- Title(参考訳): 質問対アクションと質問対質問アライメントによる複雑な知識ベース質問応答の改善
- Authors: Yechun Tang, Xiaoxia Cheng, Weiming Lu
- Abstract要約: ALCQAと呼ばれるアライメント強化複雑な質問応答フレームワークを導入する。
質問と各アクションを調整するために質問書き換えモデルをトレーニングし、事前訓練された言語モデルを使用して質問とKGアーティファクトを暗黙的に調整する。
提案手法は,質問と質問のアライメントを通じて,推論段階でトップkに類似した質問応答ペアを検索し,新たな報酬誘導行動列選択戦略を提案する。
- 参考スコア(独自算出の注目度): 6.646646618666681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex knowledge base question answering can be achieved by converting
questions into sequences of predefined actions. However, there is a significant
semantic and structural gap between natural language and action sequences,
which makes this conversion difficult. In this paper, we introduce an
alignment-enhanced complex question answering framework, called ALCQA, which
mitigates this gap through question-to-action alignment and
question-to-question alignment. We train a question rewriting model to align
the question and each action, and utilize a pretrained language model to
implicitly align the question and KG artifacts. Moreover, considering that
similar questions correspond to similar action sequences, we retrieve top-k
similar question-answer pairs at the inference stage through
question-to-question alignment and propose a novel reward-guided action
sequence selection strategy to select from candidate action sequences. We
conduct experiments on CQA and WQSP datasets, and the results show that our
approach outperforms state-of-the-art methods and obtains a 9.88\% improvements
in the F1 metric on CQA dataset. Our source code is available at
https://github.com/TTTTTTTTy/ALCQA.
- Abstract(参考訳): 複雑な知識ベースの質問応答は、質問を事前定義されたアクションのシーケンスに変換することで実現できる。
しかし、自然言語とアクションシーケンスの間には重要な意味と構造的なギャップがあり、この変換は困難である。
本稿では,質問対アクションアライメントと質問対質問アライメントを通じて,このギャップを緩和するアライメント強化複雑な質問応答フレームワークであるALCQAを紹介する。
質問と各アクションを調整するために質問書き換えモデルをトレーニングし、事前訓練された言語モデルを使用して質問とKGアーティファクトを暗黙的に調整する。
さらに、類似した質問が類似のアクションシーケンスに対応することを考慮し、質問と質問のアライメントを通じて推論段階でトップk類似の質問応答ペアを検索し、候補アクションシーケンスから選択する新たな報酬誘導アクションシーケンス選択戦略を提案する。
cqaおよびwqspデータセットで実験を行い,本手法が最先端の手法を上回り,cqaデータセットのf1指標を9.88\%改善したことを示す。
ソースコードはhttps://github.com/ttttty/alcqaで入手できます。
関連論文リスト
- Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Momentum Contrastive Pre-training for Question Answering [54.57078061878619]
MCROSSはモーメントコントラスト学習フレームワークを導入し、クローゼのような解答確率と自然な問合せのサンプルペアを一致させる。
本手法は,教師付きシナリオとゼロショットシナリオの両方において,すべてのベースラインと比較して顕著な改善を実現している。
論文 参考訳(メタデータ) (2022-12-12T08:28:22Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - Co-VQA : Answering by Interactive Sub Question Sequence [18.476819557695087]
本稿では,質問者,Oracle,Answererの3つのコンポーネントからなる対話型VQAフレームワークを提案する。
モデル毎に教師あり学習を行うために,VQA 2.0 と VQA-CP v2 データセット上で,各質問に対する SQS を構築する方法を提案する。
論文 参考訳(メタデータ) (2022-04-02T15:09:16Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Tell Me How to Ask Again: Question Data Augmentation with Controllable
Rewriting in Continuous Space [94.8320535537798]
機械読解(MRC)、質問生成、質問答え自然言語推論タスクのための制御可能な書き換えベースの質問データ拡張(CRQDA)。
質問データ拡張タスクを制約付き質問書き換え問題として扱い、コンテキスト関連、高品質、多様な質問データサンプルを生成する。
論文 参考訳(メタデータ) (2020-10-04T03:13:46Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。