論文の概要: Context-Aware Answer Extraction in Question Answering
- arxiv url: http://arxiv.org/abs/2011.02687v1
- Date: Thu, 5 Nov 2020 07:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:58:29.613097
- Title: Context-Aware Answer Extraction in Question Answering
- Title(参考訳): 質問応答における文脈認識型回答抽出
- Authors: Yeon Seonwoo, Ji-Hoon Kim, Jung-Woo Ha, Alice Oh
- Abstract要約: マルチタスク学習における補助的タスクとしてのコンテキスト予測と,コンテキスト予測タスクを学習するブロックアテンションという,2つの主要なアイデアに基づいて,textbfBLANC(textbfBLock textbfAttentiotextbfN)を提案する。
我々は,BLANCが最先端QAモデルより優れており,回答テキストの発生数が増加するにつれて,性能差が増加することを示す。
- 参考スコア(独自算出の注目度): 27.122721448264876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extractive QA models have shown very promising performance in predicting the
correct answer to a question for a given passage. However, they sometimes
result in predicting the correct answer text but in a context irrelevant to the
given question. This discrepancy becomes especially important as the number of
occurrences of the answer text in a passage increases. To resolve this issue,
we propose \textbf{BLANC} (\textbf{BL}ock \textbf{A}ttentio\textbf{N} for
\textbf{C}ontext prediction) based on two main ideas: context prediction as an
auxiliary task in multi-task learning manner, and a block attention method that
learns the context prediction task. With experiments on reading comprehension,
we show that BLANC outperforms the state-of-the-art QA models, and the
performance gap increases as the number of answer text occurrences increases.
We also conduct an experiment of training the models using SQuAD and predicting
the supporting facts on HotpotQA and show that BLANC outperforms all baseline
models in this zero-shot setting.
- Abstract(参考訳): 抽出されたQAモデルは、与えられたパスに対する質問に対する正しい答えを予測する上で非常に有望な性能を示している。
しかし、正しい回答テキストを予測できる場合もあるが、与えられた質問とは無関係である。
この不一致は、文中の回答テキストの発生回数が増加するにつれて特に重要となる。
この問題を解決するために,多タスク学習の補助タスクとしてのコンテキスト予測と,コンテキスト予測タスクを学習するブロック注意法という2つの主アイデアに基づいて, \textbf{blanc} (\textbf{bl}ock \textbf{a}ttentio\textbf{n} for \textbf{c}ontext prediction)を提案する。
読解に関する実験により、BLANCは最先端のQAモデルよりも優れており、回答テキストの出現数が増加するにつれて、性能格差が増大することを示した。
また,squadを用いてモデルのトレーニングを行い,hotpotqa上でのサポート事実を予測する実験を行い,このゼロショット設定でブランがすべてのベースラインモデルを上回ることを示す。
関連論文リスト
- Convincing Rationales for Visual Question Answering Reasoning [14.490692389105947]
VQA(Visual Question Answering)は、画像の内容に関する質問に対する回答を予測するための課題である。
VQA, CRVQAに対して, 与えられた画像/問合せ対の予測解に隣接する視覚的, テキスト的合理性を生成する。
CRVQAは、ゼロショット評価設定において、一般的なVQAデータセット上での競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-06T11:07:05Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Realistic Conversational Question Answering with Answer Selection based
on Calibrated Confidence and Uncertainty Measurement [54.55643652781891]
対話型質問回答モデル(ConvQA)は,会話中に複数回発生した質問文と過去の質問文のペアを用いて質問に回答することを目的としている。
本稿では,会話履歴における不正確な回答を,ConvQAモデルから推定された信頼度と不確実性に基づいてフィルタリングすることを提案する。
我々は2つの標準ConvQAデータセット上で、回答選択に基づくリアルな会話質問回答モデルの有効性を検証する。
論文 参考訳(メタデータ) (2023-02-10T09:42:07Z) - TASA: Deceiving Question Answering Models by Twin Answer Sentences
Attack [93.50174324435321]
本稿では,質問応答(QA)モデルに対する敵対的攻撃手法であるTASA(Twin Answer Sentences Attack)を提案する。
TASAは、金の回答を維持しながら、流動的で文法的な逆境を生み出す。
論文 参考訳(メタデータ) (2022-10-27T07:16:30Z) - Generative Context Pair Selection for Multi-hop Question Answering [60.74354009152721]
マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
論文 参考訳(メタデータ) (2021-04-18T07:00:48Z) - Cooperative Learning of Zero-Shot Machine Reading Comprehension [9.868221447090855]
質問生成と回答のための協調的自己学習モデルを提案する。
注釈なしで任意のテキストコーポラで質問生成と回答モデルをトレーニングできます。
私たちのモデルは、標準質問応答ベンチマークで最先端の事前学習された言語モデルよりも優れています。
論文 参考訳(メタデータ) (2021-03-12T18:22:28Z) - Loss re-scaling VQA: Revisiting the LanguagePrior Problem from a
Class-imbalance View [129.392671317356]
本稿では,クラス不均衡の観点から,VQAにおける言語先行問題を理解することを提案する。
これは、なぜVQAモデルが頻繁に、そして明らかに間違った答えをもたらすのかを明確に示している。
また,顔認識や画像分類などの他のコンピュータビジョンタスクに対して,クラス不均衡解釈方式の有効性を正当化する。
論文 参考訳(メタデータ) (2020-10-30T00:57:17Z) - FAT ALBERT: Finding Answers in Large Texts using Semantic Similarity
Attention Layer based on BERT [0.5772546394254112]
本研究では,最先端の変圧器ネットワークであるBERTをベースとしたモデルを構築した。
私たちは、テスト精度87.79%のリーダーボードで第1位にランクされています。
論文 参考訳(メタデータ) (2020-08-22T08:04:21Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - Conversational Question Answering over Passages by Leveraging Word
Proximity Networks [33.59664244897881]
CROWNは、経路応答を持つ会話型QAのための教師なしかつ効果的なシステムである。
複数のターンにまたがる複数のコンテキストの伝搬をサポートする。
CROWNはTREC CAsTデータで評価され、ニューラルネットワークのプールにおいて上述の性能を達成した。
論文 参考訳(メタデータ) (2020-04-27T19:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。