論文の概要: No Answer is Better Than Wrong Answer: A Reflection Model for Document
Level Machine Reading Comprehension
- arxiv url: http://arxiv.org/abs/2009.12056v2
- Date: Tue, 29 Sep 2020 09:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 22:22:54.706956
- Title: No Answer is Better Than Wrong Answer: A Reflection Model for Document
Level Machine Reading Comprehension
- Title(参考訳): No Answer is Better than Wrong Answer: A Reflection Model for Document Level Machine Reading Comprehension
- Authors: Xuguang Wang, Linjun Shou, Ming Gong, Nan Duan and Daxin Jiang
- Abstract要約: 本稿では,全ての回答型を体系的に扱う新しい手法を提案する。
特に,2段階の訓練手法を応用し,非解答事例と誤答事例を識別する反射ネットという新しい手法を提案する。
F1スコアはそれぞれ77.2点,64.1点であった。
- 参考スコア(独自算出の注目度): 92.57688872599998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Natural Questions (NQ) benchmark set brings new challenges to Machine
Reading Comprehension: the answers are not only at different levels of
granularity (long and short), but also of richer types (including no-answer,
yes/no, single-span and multi-span). In this paper, we target at this challenge
and handle all answer types systematically. In particular, we propose a novel
approach called Reflection Net which leverages a two-step training procedure to
identify the no-answer and wrong-answer cases. Extensive experiments are
conducted to verify the effectiveness of our approach. At the time of paper
writing (May.~20,~2020), our approach achieved the top 1 on both long and short
answer leaderboard, with F1 scores of 77.2 and 64.1, respectively.
- Abstract(参考訳): Natural Questions (NQ)ベンチマークセットは、Machine Reading Comprehensionに新たな課題をもたらす: 回答は、粒度の異なるレベル(長くて短い)だけでなく、よりリッチなタイプ(回答なし、Yes/no、シングルスパン、マルチスパンなど)も対象とする。
本稿では,この課題を対象とし,全ての回答タイプを体系的に扱う。
特に,2段階の学習手法を応用し,非解答事例と誤答事例を識別するリフレクションネットという新しい手法を提案する。
本手法の有効性を検証するために広範な実験を行った。
論文執筆時(2020年5月20日~20日)に,F1スコアは77.2点,64.1点,長短の両回答リーダボードの上位1点を達成した。
関連論文リスト
- Generate-then-Ground in Retrieval-Augmented Generation for Multi-hop Question Answering [45.82437926569949]
マルチホップ質問回答タスクは、大きな言語モデルにとって大きな課題となる。
マルチホップ問題の解法として,ジェネレーションセブングラウンド(GenGround)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T06:26:38Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Few-Shot Question Answering by Pretraining Span Selection [58.31911597824848]
私たちは、数百のトレーニング例しか利用できない、より現実的な数ショット設定を探索します。
標準スパン選択モデルの性能が低下していることを示し,現在の事前学習目標が質問応答から遠ざかっていることを浮き彫りにした。
本研究は,事前学習方式とモデルアーキテクチャの注意深い設計が,数ショット設定における性能に劇的な影響を及ぼすことを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:58:44Z) - A Clarifying Question Selection System from NTES_ALONG in Convai3
Challenge [8.656503175492375]
本稿では,検索指向会話型AI (SCAI) EMNLPワークショップにおけるClariQチャレンジへのNetEase Game AI Labチームの参加について述べる。
この課題は、解明された質問を理解し、生成できる完全な会話情報検索システムを求めるものである。
本稿では,回答理解,質問のリコール,質問ランキングの明確化からなる質問選択システムを提案する。
論文 参考訳(メタデータ) (2020-10-27T11:22:53Z) - Document Modeling with Graph Attention Networks for Multi-grained
Machine Reading Comprehension [127.3341842928421]
Natural Questionsは、新しい挑戦的な機械読解ベンチマークである。
解答は2つあり、長解(典型的には1段落)と短解(長解の内にある1つ以上の実体)である。
既存の方法は、これらの2つのサブタスクをトレーニング中に個別に扱い、依存関係を無視します。
本稿では,文書を階層的にモデル化する多層機械読解フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-12T14:20:09Z) - RikiNet: Reading Wikipedia Pages for Natural Question Answering [101.505486822236]
我々は,自然質問応答のためのウィキペディアページを読み取るRikiNetという新しいモデルを導入する。
Natural Questionsデータセットでは、1つのRikiNetが74.3 F1と57.9 F1を達成した。
アンサンブルのRikiNetは76.1 F1と61.3 F1をロングアンサーおよびショートアンサーのタスクで獲得し、公式NQリーダーボードで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-30T03:29:21Z) - Retrospective Reader for Machine Reading Comprehension [90.6069071495214]
機械読み取り理解(英: Machine reading comprehension、MRC)とは、機械が与えられた文節に基づいて質問に対する正しい答えを決定することを要求するAIチャレンジである。
不可解な質問が MRC タスクに関与している場合、検証モジュールと呼ばれる本質的な検証モジュールがエンコーダに加えて特に必要となる。
本稿では, MRC タスクに対して, 解答不能な質問に対して, より優れた検証器設計を提案する。
論文 参考訳(メタデータ) (2020-01-27T11:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。