論文の概要: ListReader: Extracting List-form Answers for Opinion Questions
- arxiv url: http://arxiv.org/abs/2110.11692v1
- Date: Fri, 22 Oct 2021 10:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 14:35:53.334712
- Title: ListReader: Extracting List-form Answers for Opinion Questions
- Title(参考訳): ListReader: 質問に対するリスト形式の回答を抽出する
- Authors: Peng Cui, Dongyao Hu, Le Hu
- Abstract要約: ListReaderは、リスト形式の回答のためのニューラルネットワーク抽出QAモデルである。
質問と内容のアライメントの学習に加えて,異種グラフニューラルネットワークを導入する。
提案モデルでは,スパンレベルと文レベルのいずれの回答も抽出可能な抽出設定を採用する。
- 参考スコア(独自算出の注目度): 18.50111430378249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question answering (QA) is a high-level ability of natural language
processing. Most extractive ma-chine reading comprehension models focus on
factoid questions (e.g., who, when, where) and restrict the output answer as a
short and continuous span in the original passage. However, in real-world
scenarios, many questions are non-factoid (e.g., how, why) and their answers
are organized in the list format that contains multiple non-contiguous spans.
Naturally, existing extractive models are by design unable to answer such
questions. To address this issue, this paper proposes ListReader, a neural
ex-tractive QA model for list-form answer. In addition to learning the
alignment between the question and content, we introduce a heterogeneous graph
neural network to explicitly capture the associations among candidate segments.
Moreover, our model adopts a co-extraction setting that can extract either
span- or sentence-level answers, allowing better applicability. Two large-scale
datasets of different languages are constructed to support this study.
Experimental results show that our model considerably outperforms various
strong baselines. Further discussions provide an intuitive understanding of how
our model works and where the performance gain comes from.
- Abstract(参考訳): 質問応答(QA)は自然言語処理の高レベルな能力である。
ほとんどの抽出マシーン読解モデルは、ファクトイドな質問(例えば、いつ、どこで、どこで)に焦点を合わせ、出力の答えを元の節の短く連続的なスパンとして制限する。
しかし、現実のシナリオでは、多くの質問は非ファクト(例えば、なぜか)であり、その答えは複数の非連続スパンを含むリスト形式に整理される。
当然、既存の抽出モデルはそのような質問に答えることができない。
この問題に対処するため,本稿では,リスト形式回答のためのニューラル抽出QAモデルであるListReaderを提案する。
質問と内容のアライメントの学習に加えて,候補セグメント間の関係を明示的に把握するヘテロジニアスグラフニューラルネットワークを導入する。
さらに,本モデルでは,スパンレベルあるいは文レベルの回答を抽出し,適用性の向上を図る。
この研究を支援するために、異なる言語の大規模データセットが2つ構築されている。
実験結果から,本モデルは各種の強いベースラインを著しく上回ることがわかった。
さらなる議論は、私たちのモデルがどのように機能し、パフォーマンスがどこから得られるのかを直感的に理解する。
関連論文リスト
- GSQA: An End-to-End Model for Generative Spoken Question Answering [54.418723701886115]
本稿では,システムに抽象的推論を強制するGSQA(Generative Spoken Question Answering)モデルを提案する。
本モデルでは, 抽出QAデータセットにおいて, 従来の抽出モデルよりも3%上回っている。
我々のGSQAモデルは、幅広い質問に一般化する可能性を示し、それによって、抽象的QAの音声質問応答能力をさらに拡張する。
論文 参考訳(メタデータ) (2023-12-15T13:33:18Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Adapting Pre-trained Generative Models for Extractive Question Answering [4.993041970406846]
本稿では、事前学習された生成モデルのパワーを用いて、抽出されたQAタスクに対処する新しいアプローチを提案する。
本稿では,既存の最先端モデルと比較して,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-11-06T09:01:02Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - LIQUID: A Framework for List Question Answering Dataset Generation [17.86721740779611]
ラベルなしコーパスからリストQAデータセットを生成するためのフレームワークであるLIQUIDを提案する。
まず、ウィキペディアまたはPubMedからの節を要約に変換し、要約されたテキストから名前付きエンティティを候補回答として抽出する。
次に、抽出されたエンティティと元のパスを含む既成の質問生成器を用いて質問を生成する。
合成データを用いて,MultiSpanQAでは5.0点,Quorefでは1.9点,BioASQベンチマークでは2.8点の精度で,過去のベストリストQAモデルの性能を大幅に向上させた。
論文 参考訳(メタデータ) (2023-02-03T12:42:45Z) - VANiLLa : Verbalized Answers in Natural Language at Large Scale [2.9098477555578333]
このデータセットは、CSQAとSimpleQuestionsWikidataデータセットから適応された100万以上の単純な質問で構成されている。
このデータセットの回答文は、三つの事実よりも構文的に、意味的に質問に近い。
論文 参考訳(メタデータ) (2021-05-24T16:57:54Z) - Generative Context Pair Selection for Multi-hop Question Answering [60.74354009152721]
マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
論文 参考訳(メタデータ) (2021-04-18T07:00:48Z) - EfficientQA : a RoBERTa Based Phrase-Indexed Question-Answering System [0.0]
本稿では,言語モデルの自然言語理解を,質問や回答候補を表す密接なベクトルに移す可能性について検討する。
提案モデルでは,Phrase-Indexed Question Answering (PIQA) における最先端結果が,精度1.3ポイント,f1スコア1.4ポイントで達成されている。
論文 参考訳(メタデータ) (2021-01-06T17:46:05Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Text Modular Networks: Learning to Decompose Tasks in the Language of
Existing Models [61.480085460269514]
本稿では,既存のモデルで解けるより単純なモデルに分解することで,複雑なタスクを解くための解釈可能なシステムを構築するためのフレームワークを提案する。
我々はこのフレームワークを用いて、ニューラルネットワークのファクトイド単一スパンQAモデルとシンボリック電卓で答えられるサブクエストに分解することで、マルチホップ推論問題に答えられるシステムであるModularQAを構築する。
論文 参考訳(メタデータ) (2020-09-01T23:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。