論文の概要: Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation
- arxiv url: http://arxiv.org/abs/2201.05088v1
- Date: Thu, 13 Jan 2022 17:18:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 18:18:20.205324
- Title: Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation
- Title(参考訳): アンサー説明のためのインフォーマル・イット・コンサイス・エビデンス蒸留法
- Authors: Yuyan Chen, Yanghua Xiao, Bang Liu
- Abstract要約: 我々は、QAモデルの解釈可能性を高めるために、解答の証拠が重要であると論じる。
我々は、証拠の概念を、情報的で簡潔で読みやすい文脈における支援事実として明確に定義する最初の人物である。
本稿では, トレードオフ情報性, 簡潔性, 可読性からエビデンスを抽出するGCEDアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.20733260041759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpreting the predictions of existing Question Answering (QA) models is
critical to many real-world intelligent applications, such as QA systems for
healthcare, education, and finance. However, existing QA models lack
interpretability and provide no feedback or explanation for end-users to help
them understand why a specific prediction is the answer to a question.In this
research, we argue that the evidences of an answer is critical to enhancing the
interpretability of QA models. Unlike previous research that simply extracts
several sentence(s) in the context as evidence, we are the first to explicitly
define the concept of evidence as the supporting facts in a context which are
informative, concise, and readable. Besides, we provide effective strategies to
quantitatively measure the informativeness, conciseness and readability of
evidence. Furthermore, we propose Grow-and-Clip Evidence Distillation (GCED)
algorithm to extract evidences from the contexts by trade-off informativeness,
conciseness, and readability. We conduct extensive experiments on the SQuAD and
TriviaQA datasets with several baseline models to evaluate the effect of GCED
on interpreting answers to questions. Human evaluation are also carried out to
check the quality of distilled evidences. Experimental results show that
automatic distilled evidences have human-like informativeness, conciseness and
readability, which can enhance the interpretability of the answers to
questions.
- Abstract(参考訳): 既存の質問回答モデル(QA)の予測を解釈することは、医療、教育、財務のためのQAシステムなど、多くの現実世界のインテリジェントなアプリケーションにとって重要である。
しかし、既存のQAモデルは解釈可能性に欠けており、特定の予測が疑問に対する答えである理由を理解するためにエンドユーザにフィードバックや説明を提供していない。
文脈におけるいくつかの文をエビデンスとして抽出する従来の研究とは異なり、我々は証拠の概念を情報的で簡潔で読みやすい文脈における支援事実として明示的に定義する。
また,証拠の定量的・簡潔・可読性を定量的に評価するための効果的な戦略を提供する。
さらに, 情報提供性, 簡潔性, 可読性等により, 文脈からエビデンスを抽出するためのグロース・アンド・クリップ・エビデンス蒸留(gced)アルゴリズムを提案する。
我々は,複数のベースラインモデルを用いたSQuADとTriviaQAデータセットの広範な実験を行い,GCEDが質問に対する回答の解釈に与える影響を評価する。
蒸留された証拠の品質を確認するために人的評価も行われる。
実験の結果, 自動蒸留実験の結果は, 質問に対する回答の解釈性を高めるため, 人的情報性, 簡潔性, 可読性を有することがわかった。
関連論文リスト
- Retrieve to Explain: Evidence-driven Predictions with Language Models [0.791663505497707]
本稿では,検索に基づく言語モデルであるRetrieve to Explain (R2E)を紹介する。
R2Eは、ドキュメントコーパスから取得した証拠に基づいて、研究質問に対するすべての可能な回答をスコアし、ランク付けする。
薬物標的同定の課題を科学的文献から評価する。
論文 参考訳(メタデータ) (2024-02-06T15:13:17Z) - InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification [60.10193972862099]
本研究は, 簡易化による情報損失を問合せ・問合せ形式で特徴づけ, 回復する枠組みを提案する。
QAペアは、読者がテキストの知識を深めるのに役立つように設計されている。
論文 参考訳(メタデータ) (2024-01-29T19:00:01Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - ReasonChainQA: Text-based Complex Question Answering with Explainable
Evidence Chains [15.837457557803507]
説明的および明示的なエビデンス連鎖を有するベンチマーク textbfReasonChainQA を提案する。
ReasonChainQAは、回答生成とエビデンス連鎖抽出という2つのサブタスクから構成される。
教師付きおよび教師なし検索に関する追加実験は、ReasonChainQAの重要性を十分に示している。
論文 参考訳(メタデータ) (2022-10-17T06:07:39Z) - Do Answers to Boolean Questions Need Explanations? Yes [11.226970608525596]
既存のTyDi QAとBoolQデータセットのエビデンスを示す新しいアノテーションセットをリリースします。
私たちのアノテーションは、改善されたエビデンスの範囲を抽出するモデルをトレーニングするために使用できます。
論文 参考訳(メタデータ) (2021-12-14T22:40:28Z) - Introspective Distillation for Robust Question Answering [70.18644911309468]
質問応答(QA)モデルは、例えば、視覚的QAに先行する言語や、読解における位置バイアスなど、データのバイアスを利用するためによく知られている。
近年の脱バイアス法は, 分配内(ID)性能のかなりの犠牲を伴い, 分配外(OOD)の一般化性を良好に達成している。
IntroD(Introspective Distillation)と呼ばれる新しい脱湿法を提案し,両者のQAを最大限に活用する。
論文 参考訳(メタデータ) (2021-11-01T15:30:15Z) - REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement [130.8875535449478]
REM-Netは、答えを説明できない低品質な証拠を消去することで証拠を洗練するためのモジュールを備えている。
既存の知識ベースから証拠を取得する代わりに、REM-Netは事前訓練された生成モデルを利用して、質問用にカスタマイズされた候補証拠を生成する。
結果はREM-Netの性能を示し、洗練された証拠が説明可能であることを示します。
論文 参考訳(メタデータ) (2020-12-24T10:07:32Z) - Context Modeling with Evidence Filter for Multiple Choice Question
Answering [18.154792554957595]
MCQA(Multi-Choice Question Answering)は、機械読解における課題である。
主な課題は、正しい答えをサポートする与えられたコンテキストから"エビデンス"を抽出することである。
既存の作業は、人間の努力に過度に依存するルールで注釈付きエビデンスや遠方の監督によってこの問題に取り組む。
本稿では,エンコードされた文脈間の関係をモデル化するためのエビデンスフィルタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-06T11:53:23Z) - QED: A Framework and Dataset for Explanations in Question Answering [27.85923397716627]
Google Natural Questionsデータセットのサブセット上に構築されたQED説明のエキスパートアノテートデータセットをリリースする。
有望な結果は、比較的少量のQEDデータのトレーニングが質問応答を改善することを示唆している。
論文 参考訳(メタデータ) (2020-09-08T23:34:18Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z) - Asking and Answering Questions to Evaluate the Factual Consistency of
Summaries [80.65186293015135]
本稿では,QAGS (kags) と呼ばれる自動評価プロトコルを提案する。
QAGSは、要約とそのソースについて質問すると、要約が実際にソースと一致している場合、同様の回答が得られます。
QAGSは、使いやすく、現実的に一貫性のあるテキストを自動的に生成するための有望なツールであると考えています。
論文 参考訳(メタデータ) (2020-04-08T20:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。