論文の概要: NEUer at SemEval-2021 Task 4: Complete Summary Representation by Filling
Answers into Question for Matching Reading Comprehension
- arxiv url: http://arxiv.org/abs/2105.12051v1
- Date: Tue, 25 May 2021 16:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 14:31:04.208244
- Title: NEUer at SemEval-2021 Task 4: Complete Summary Representation by Filling
Answers into Question for Matching Reading Comprehension
- Title(参考訳): NEUer at SemEval-2021 Task 4: Complete Summary Representation by Filling Answers into Questioning Matching Reading Comprehension (英語)
- Authors: Zhixiang Chen, Yikun Lei, Pai Liu, Guibing Guo
- Abstract要約: そこで我々は,質問に選択肢を埋め込んで,よりきめ細かなコンテキストを生成する新しいMRCモデルを提案する。
与えられたデータセット上で一連の実験を行い、その結果、我々のアプローチは、他のデータセットよりもかなり優れています。
- 参考スコア(独自算出の注目度): 10.361024307659187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SemEval task 4 aims to find a proper option from multiple candidates to
resolve the task of machine reading comprehension. Most existing approaches
propose to concat question and option together to form a context-aware model.
However, we argue that straightforward concatenation can only provide a
coarse-grained context for the MRC task, ignoring the specific positions of the
option relative to the question. In this paper, we propose a novel MRC model by
filling options into the question to produce a fine-grained context (defined as
summary) which can better reveal the relationship between option and question.
We conduct a series of experiments on the given dataset, and the results show
that our approach outperforms other counterparts to a large extent.
- Abstract(参考訳): SemEval Task 4は、機械読解の課題を解決するために、複数の候補から適切な選択肢を見つけることを目的としている。
既存のアプローチの多くは、質問と選択肢を結合してコンテキスト認識モデルを構築することを提案する。
しかし、直感的な結合は、質問に対する選択肢の特定の位置を無視して、MCCタスクに対して粗いコンテキストしか提供できないと論じる。
本稿では,選択肢を問合せに充足して,選択肢と問合せの関係をよりよく明らかにする,よりきめ細かいコンテキスト(要約として定義される)を生成する新しいMDCモデルを提案する。
与えられたデータセット上で一連の実験を行い、その結果、我々のアプローチは、他のデータセットよりもかなり優れています。
関連論文リスト
- QFMTS: Generating Query-Focused Summaries over Multi-Table Inputs [63.98556480088152]
表要約は、情報を簡潔で分かりやすいテキスト要約に凝縮するための重要な課題である。
本稿では,クエリ中心のマルチテーブル要約を導入することで,これらの制約に対処する新しい手法を提案する。
提案手法は,テーブルシリアライズモジュール,要約コントローラ,および大規模言語モデルからなり,ユーザの情報要求に合わせたクエリ依存のテーブル要約を生成する。
論文 参考訳(メタデータ) (2024-05-08T15:05:55Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Few-shot Query-Focused Summarization with Prefix-Merging [10.572282987037353]
本稿では,クエリに着目した要約において,プレフィックスに基づくプレトレーニング戦略を提案する。
少数のトレーニング可能なパラメータだけで、プレフィックスマージはクエリ中心の要約を微調整する。
論文 参考訳(メタデータ) (2022-11-29T12:48:37Z) - Self-Teaching Machines to Read and Comprehend with Large-Scale
Multi-Subject Question Answering Data [58.36305373100518]
主観的問合せデータが機械読解作業に有用かどうかは不明である。
大規模多目的多目的質問回答データセットであるExamQAを収集する。
我々は、Web検索エンジンが返す不完全でノイズの多いスニペットを、各質問応答インスタンスの関連するコンテキストとして使用し、弱いラベル付きMRCインスタンスに変換する。
論文 参考訳(メタデータ) (2021-02-01T23:18:58Z) - Multi-hop Inference for Question-driven Summarization [39.08269647808958]
本稿では,新しい質問駆動抽象要約手法であるMulti-hop Selective Generator (MSG)を提案する。
MSGは、マルチホップ推論を質問駆動要約に取り入れ、生成した要約の正当化を提供する。
実験結果から,提案手法は2つの非ファクトイドQAデータセット上で常に最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2020-10-08T02:36:39Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。