論文の概要: RikiNet: Reading Wikipedia Pages for Natural Question Answering
- arxiv url: http://arxiv.org/abs/2004.14560v1
- Date: Thu, 30 Apr 2020 03:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:07:55.686470
- Title: RikiNet: Reading Wikipedia Pages for Natural Question Answering
- Title(参考訳): RikiNet:ウィキペディアのページを読んで質問に答える
- Authors: Dayiheng Liu, Yeyun Gong, Jie Fu, Yu Yan, Jiusheng Chen, Daxin Jiang,
Jiancheng Lv and Nan Duan
- Abstract要約: 我々は,自然質問応答のためのウィキペディアページを読み取るRikiNetという新しいモデルを導入する。
Natural Questionsデータセットでは、1つのRikiNetが74.3 F1と57.9 F1を達成した。
アンサンブルのRikiNetは76.1 F1と61.3 F1をロングアンサーおよびショートアンサーのタスクで獲得し、公式NQリーダーボードで最高のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 101.505486822236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reading long documents to answer open-domain questions remains challenging in
natural language understanding. In this paper, we introduce a new model, called
RikiNet, which reads Wikipedia pages for natural question answering. RikiNet
contains a dynamic paragraph dual-attention reader and a multi-level cascaded
answer predictor. The reader dynamically represents the document and question
by utilizing a set of complementary attention mechanisms. The representations
are then fed into the predictor to obtain the span of the short answer, the
paragraph of the long answer, and the answer type in a cascaded manner. On the
Natural Questions (NQ) dataset, a single RikiNet achieves 74.3 F1 and 57.9 F1
on long-answer and short-answer tasks. To our best knowledge, it is the first
single model that outperforms the single human performance. Furthermore, an
ensemble RikiNet obtains 76.1 F1 and 61.3 F1 on long-answer and short-answer
tasks, achieving the best performance on the official NQ leaderboard
- Abstract(参考訳): オープンドメインの質問に答えるために長いドキュメントを読むことは、自然言語の理解において依然として難しい。
本稿では,自然質問の回答のためにwikipediaのページを読み取るrikinetという新しいモデルを紹介する。
RikiNetには、動的段落のデュアルアテンションリーダーと、多段階の応答予測器が含まれている。
読者は、相補的な注意機構のセットを利用して文書と質問を動的に表現する。
次に、表現を予測器に送って、短い回答のスパン、長い回答の段落、回答のタイプを逐次的に取得する。
Natural Questions (NQ)データセットでは、1つのRikiNetが74.3 F1と57.9 F1を達成した。
私たちの知る限りでは、これは人間の単一パフォーマンスを上回る最初の単一モデルです。
さらに、アンサンブルのRikiNetは、ロングアンサーおよびショートアンサータスクにおいて76.1 F1と61.3 F1を取得し、公式NQリーダーボード上で最高のパフォーマンスを達成する。
関連論文リスト
- Question Answering in Natural Language: the Special Case of Temporal
Expressions [0.0]
本研究の目的は,1段落内の時間的質問に対する回答を見つけるために,一般的な質問応答や回答抽出に使用される一般的なアプローチを活用することである。
モデルをトレーニングするために、SQuADにインスパイアされた新しいデータセットを提案する。
本評価は,パターンマッチングを訓練した深層学習モデルにおいて,時間的質問応答に適応できることを示す。
論文 参考訳(メタデータ) (2023-11-23T16:26:24Z) - Concise Answers to Complex Questions: Summarization of Long-form Answers [27.190319030219285]
我々は,最先端モデルから生成された要約された回答と,新たに提案した抽出・デコンテクライズ手法について,ユーザスタディを行った。
複雑で暗黙的な解答は圧縮が困難であるのに対し、少なくとも1つのシステムによって、大量の長文解答を適切に要約できることがわかった。
要約作業において,非コンテクスト化によって抽出された要約の質が向上し,その可能性を実証する。
論文 参考訳(メタデータ) (2023-05-30T17:59:33Z) - How Do We Answer Complex Questions: Discourse Structure of Long-form
Answers [51.973363804064704]
3つのデータセットから収集した長文回答の機能構造について検討した。
私たちの主な目標は、人間が複雑な答えを作るためにどのように情報を整理するかを理解することです。
我々の研究は、長期QAシステムの談話レベルのモデリングと評価に関する将来の研究に刺激を与えることができる。
論文 参考訳(メタデータ) (2022-03-21T15:14:10Z) - MixQG: Neural Question Generation with Mixed Answer Types [54.23205265351248]
このギャップを埋めるために、ニューラル質問生成器MixQGを提案する。
yes/no, multiple-choice, extractive, abstractive answerなど,9つの質問応答データセットと多様な回答タイプを組み合わせる。
私たちのモデルは、目に見えない領域と見えない領域の両方で、既存の作業より優れています。
論文 参考訳(メタデータ) (2021-10-15T16:03:40Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - No Answer is Better Than Wrong Answer: A Reflection Model for Document
Level Machine Reading Comprehension [92.57688872599998]
本稿では,全ての回答型を体系的に扱う新しい手法を提案する。
特に,2段階の訓練手法を応用し,非解答事例と誤答事例を識別する反射ネットという新しい手法を提案する。
F1スコアはそれぞれ77.2点,64.1点であった。
論文 参考訳(メタデータ) (2020-09-25T06:57:52Z) - ConfNet2Seq: Full Length Answer Generation from Spoken Questions [35.5617271023687]
本稿では,音声質問とファクトイド回答から全長の自然言語回答を生成する新しいシステムを提案する。
予め訓練された自動音声認識器から抽出された混乱ネットワークとして、音声シーケンスをコンパクトに表現する。
本研究では,259,788件の音声質問の大規模データセット,そのファクトイド回答,およびそれに対応する全文回答を公表する。
論文 参考訳(メタデータ) (2020-06-09T10:04:49Z) - Document Modeling with Graph Attention Networks for Multi-grained
Machine Reading Comprehension [127.3341842928421]
Natural Questionsは、新しい挑戦的な機械読解ベンチマークである。
解答は2つあり、長解(典型的には1段落)と短解(長解の内にある1つ以上の実体)である。
既存の方法は、これらの2つのサブタスクをトレーニング中に個別に扱い、依存関係を無視します。
本稿では,文書を階層的にモデル化する多層機械読解フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-12T14:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。