論文の概要: To Answer or Not to Answer? Improving Machine Reading Comprehension
Model with Span-based Contrastive Learning
- arxiv url: http://arxiv.org/abs/2208.01299v1
- Date: Tue, 2 Aug 2022 08:09:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:08:37.868771
- Title: To Answer or Not to Answer? Improving Machine Reading Comprehension
Model with Span-based Contrastive Learning
- Title(参考訳): 答えるべきか 答えないのか?
Span-based Contrastive Learningによる機械読解モデルの改善
- Authors: Yunjie Ji, Liangyu Chen, Chenxiao Dou, Baochang Ma, Xiangang Li
- Abstract要約: 本研究では,解答可能な質問を,解答可能で解答不能な質問と明示的に対比するスパンシブ・ラーニング(spanCL)を提案する。
SQuAD 2.0データセットの実験では、spanceCLはベースラインを大幅に改善し、0.86-2.14の絶対EM改善をもたらすことが示されている。
- 参考スコア(独自算出の注目度): 9.490758388465697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Reading Comprehension with Unanswerable Questions is a difficult NLP
task, challenged by the questions which can not be answered from passages. It
is observed that subtle literal changes often make an answerable question
unanswerable, however, most MRC models fail to recognize such changes. To
address this problem, in this paper, we propose a span-based method of
Contrastive Learning (spanCL) which explicitly contrast answerable questions
with their answerable and unanswerable counterparts at the answer span level.
With spanCL, MRC models are forced to perceive crucial semantic changes from
slight literal differences. Experiments on SQuAD 2.0 dataset show that spanCL
can improve baselines significantly, yielding 0.86-2.14 absolute EM
improvements. Additional experiments also show that spanCL is an effective way
to utilize generated questions.
- Abstract(参考訳): 不可解な質問による機械読解理解は難解なNLP課題であり、問答から答えられない質問に挑戦する。
微妙なリテラルな変化は答え可能な質問を理解できないことが多いが、ほとんどのmrcモデルはそのような変化を認識できない。
この問題に対処するため,本稿では,解答可能な質問と解答不可能な質問とを,回答スパンレベルで明示的に対比するスパンサティブ学習法(spanCL)を提案する。
spanclでは、mrcモデルはわずかなリテラルの違いから重要な意味変化を認識せざるを得ない。
SQuAD 2.0データセットの実験では、spanceCLはベースラインを大幅に改善し、0.86-2.14絶対EMの改善をもたらす。
さらなる実験により、spanclは生成された質問を効果的に利用する方法であることが示されている。
関連論文リスト
- Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask [3.470121495099]
本研究では,推論的質問が重要となる読解のための質問生成(QG)について検討する。
本稿では,従来のデータセットを利用した2段階モデル(HTA-WTA)を提案する。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
論文 参考訳(メタデータ) (2022-04-06T15:52:24Z) - Answer Span Correction in Machine Reading Comprehension [16.82391374339153]
機械読解理解(MRC)は、抽出された回答を入力コンテキストと質問ペアに対して検証する。
以前の研究は、抽出された回答から質問の「答え可能性」を再評価することを検討した。
ここでは,既存のMSCシステムにおいて,解答可能な質問を提示した場合に,部分的に正解が生じる傾向について考察する。
論文 参考訳(メタデータ) (2020-11-06T15:31:07Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Tell Me How to Ask Again: Question Data Augmentation with Controllable
Rewriting in Continuous Space [94.8320535537798]
機械読解(MRC)、質問生成、質問答え自然言語推論タスクのための制御可能な書き換えベースの質問データ拡張(CRQDA)。
質問データ拡張タスクを制約付き質問書き換え問題として扱い、コンテキスト関連、高品質、多様な質問データサンプルを生成する。
論文 参考訳(メタデータ) (2020-10-04T03:13:46Z) - Composing Answer from Multi-spans for Reading Comprehension [77.32873012668783]
本稿では,非抽出機械読解(MRC)タスクに対する応答を生成する新しい手法を提案する。
提案手法は,長い解答を正確に生成する性能が向上し,競合する2つの典型的な1スパンとSeq2Seqのベースラインデコーダよりも大幅に向上する。
論文 参考訳(メタデータ) (2020-09-14T01:44:42Z) - Retrospective Reader for Machine Reading Comprehension [90.6069071495214]
機械読み取り理解(英: Machine reading comprehension、MRC)とは、機械が与えられた文節に基づいて質問に対する正しい答えを決定することを要求するAIチャレンジである。
不可解な質問が MRC タスクに関与している場合、検証モジュールと呼ばれる本質的な検証モジュールがエンコーダに加えて特に必要となる。
本稿では, MRC タスクに対して, 解答不能な質問に対して, より優れた検証器設計を提案する。
論文 参考訳(メタデータ) (2020-01-27T11:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。