論文の概要: Prompt-based Conservation Learning for Multi-hop Question Answering
- arxiv url: http://arxiv.org/abs/2209.06923v1
- Date: Wed, 14 Sep 2022 20:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:34:22.183793
- Title: Prompt-based Conservation Learning for Multi-hop Question Answering
- Title(参考訳): マルチホップ質問応答のためのプロンプト型保存学習
- Authors: Zhenyun Deng, Yonghua Zhu, Yang Chen, Qianqian Qi, Michael Witbrock,
Patricia Riddle
- Abstract要約: マルチホップ質問応答には、複雑な質問に答えるために複数の文書を推論する必要がある。
既存のマルチホップQAメソッドの多くは、サブクエストのかなりの部分に答えられません。
マルチホップQAのためのPromptベースの保存学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.516763652013005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-hop question answering (QA) requires reasoning over multiple documents
to answer a complex question and provide interpretable supporting evidence.
However, providing supporting evidence is not enough to demonstrate that a
model has performed the desired reasoning to reach the correct answer. Most
existing multi-hop QA methods fail to answer a large fraction of sub-questions,
even if their parent questions are answered correctly. In this paper, we
propose the Prompt-based Conservation Learning (PCL) framework for multi-hop
QA, which acquires new knowledge from multi-hop QA tasks while conserving old
knowledge learned on single-hop QA tasks, mitigating forgetting. Specifically,
we first train a model on existing single-hop QA tasks, and then freeze this
model and expand it by allocating additional sub-networks for the multi-hop QA
task. Moreover, to condition pre-trained language models to stimulate the kind
of reasoning required for specific multi-hop questions, we learn soft prompts
for the novel sub-networks to perform type-specific reasoning. Experimental
results on the HotpotQA benchmark show that PCL is competitive for multi-hop QA
and retains good performance on the corresponding single-hop sub-questions,
demonstrating the efficacy of PCL in mitigating knowledge loss by forgetting.
- Abstract(参考訳): マルチホップ質問応答(qa:multi-hop question answering)は、複数の文書を推論して複雑な質問に答え、解釈可能な裏付けを提供する。
しかし、支持する証拠を提供することは、モデルが正しい答えに達するために望ましい理由を実行したことを示すのに十分ではない。
既存のマルチホップQAメソッドの多くは、たとえ親の質問が正しく答えられたとしても、少数のサブクエストに答えられない。
本稿では,マルチホップQAタスクから新しい知識を取得し,シングルホップQAタスクで学んだ古い知識を保存し,忘れを緩和する,マルチホップQAのためのPrompt-based Conservation Learning (PCL)フレームワークを提案する。
具体的には、まず既存のシングルホップQAタスクでモデルをトレーニングし、次にこのモデルを凍結し、マルチホップQAタスクのために追加のサブネットワークを割り当てることで拡張する。
さらに、特定のマルチホップ質問に必要となる推論を刺激するために事前学習言語モデルを条件付けするために、新しいサブネットワークがタイプ固有の推論を行うためのソフトプロンプトを学習する。
HotpotQAベンチマークの実験結果から,PCLはマルチホップQAに対して競争力があり,それに対応するシングルホップサブクエストに対して良好な性能を維持し,PCLが忘れることによる知識損失を軽減できることを示した。
関連論文リスト
- Understanding and Improving Zero-shot Multi-hop Reasoning in Generative
Question Answering [85.79940770146557]
マルチホップ質問を複数の単一ホップ質問に分解する。
これらの対の見かけ上同一の問合せ連鎖について、QAモデルの答えに顕著な矛盾が認められる。
シングルホップの質問だけを訓練すると、モデルはマルチホップの質問に対してあまり一般化しない。
論文 参考訳(メタデータ) (2022-10-09T11:48:07Z) - Locate Then Ask: Interpretable Stepwise Reasoning for Multi-hop Question
Answering [71.49131159045811]
マルチホップ推論では、複雑な質問に答えるために複数の文書を集約する必要がある。
既存の方法は通常、マルチホップの質問を単純なシングルホップの質問に分解する。
そこで本研究では,単一ホップ支援文識別と単一ホップ質問生成の両方を組み込む,解釈可能な段階的推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-22T13:24:25Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Calibrating Trust of Multi-Hop Question Answering Systems with
Decompositional Probes [14.302797773412543]
マルチホップ質問回答(Multi-hop Question Answering, QA)は、複数の文脈からの情報の正確な集約を必要とするため、難しい課題である。
マルチホップQAにおける最近の研究は、まず質問を単純なシングルホップの質問に分解することで、パフォーマンスを向上できることを示している。
そこで本研究では,分解はQAシステムを探索する有効な方法であり,説明生成への有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2022-04-16T01:03:36Z) - Ask to Understand: Question Generation for Multi-hop Question Answering [11.626390908264872]
マルチホップ質問回答 (Multi-hop Question Answering, QA) は、複数の文書から散乱した手がかりを見つけ、推論することで複雑な質問に答えることを要求する。
質問生成(QG)の観点から,マルチホップQAを補完する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T04:02:29Z) - Unsupervised Multi-hop Question Answering by Question Generation [108.61653629883753]
MQA-QGは、人間のようなマルチホップトレーニングデータを生成する、教師なしのフレームワークである。
生成された学習データのみを用いて、教師付き学習性能の61%と83%を達成できる有能なマルチホップQAを訓練することができる。
論文 参考訳(メタデータ) (2020-10-23T19:13:47Z) - Reinforced Multi-task Approach for Multi-hop Question Generation [47.15108724294234]
我々は,その文脈における支援事実に基づいて,関連する質問を生成することを目的としたマルチホップ質問生成を取り上げている。
我々は,質問生成を導くために,回答認識支援事実予測の補助タスクを備えたマルチタスク学習を採用する。
マルチホップ質問応答データセットHotPotQAの実験を通して,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-05T10:16:59Z) - Do Multi-Hop Question Answering Systems Know How to Answer the
Single-Hop Sub-Questions? [23.991872322492384]
マルチホップ質問におけるトップパフォーマンスモデルが,人間のようなサブクエストの根底にある部分クエストを理解しているかどうかを考察する。
複数の最先端マルチホップQAモデルがサブクエストの大部分に正しく答えられていないことを示す。
我々の研究は、より説明しやすいマルチホップQAシステムの構築に向けて一歩前進します。
論文 参考訳(メタデータ) (2020-02-23T15:16:43Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。