論文の概要: Do Answers to Boolean Questions Need Explanations? Yes
- arxiv url: http://arxiv.org/abs/2112.07772v1
- Date: Tue, 14 Dec 2021 22:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 05:05:56.070866
- Title: Do Answers to Boolean Questions Need Explanations? Yes
- Title(参考訳): ブール質問に対する回答には説明が必要であるか?
はい
- Authors: Sara Rosenthal, Mihaela Bornea, Avirup Sil, Radu Florian, Scott
McCarley
- Abstract要約: 既存のTyDi QAとBoolQデータセットのエビデンスを示す新しいアノテーションセットをリリースします。
私たちのアノテーションは、改善されたエビデンスの範囲を抽出するモデルをトレーニングするために使用できます。
- 参考スコア(独自算出の注目度): 11.226970608525596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing datasets that contain boolean questions, such as BoolQ and TYDI QA ,
provide the user with a YES/NO response to the question. However, a one word
response is not sufficient for an explainable system. We promote explainability
by releasing a new set of annotations marking the evidence in existing TyDi QA
and BoolQ datasets. We show that our annotations can be used to train a model
that extracts improved evidence spans compared to models that rely on existing
resources. We confirm our findings with a user study which shows that our
extracted evidence spans enhance the user experience. We also provide further
insight into the challenges of answering boolean questions, such as passages
containing conflicting YES and NO answers, and varying degrees of relevance of
the predicted evidence.
- Abstract(参考訳): BoolQやTYDI QAといったブール質問を含む既存のデータセットは、質問に対するYES/NO応答をユーザに提供します。
しかし、1ワードの応答は説明可能なシステムでは不十分である。
既存のTyDi QAおよびBoolQデータセットのエビデンスを示す新しいアノテーションセットを公開することによって、説明可能性を促進する。
既存のリソースに依存するモデルと比較して、改良されたエビデンスススススパンを抽出するモデルをトレーニングするために、アノテーションが使用できることを示します。
抽出したエビデンスがユーザエクスペリエンスの向上に寄与することを示すユーザスタディで,この知見を確認した。
また、矛盾するYESとNOの回答を含む通路や、予測された証拠の様々な関連性など、ブール問題の解答に関するさらなる知見を提供する。
関連論文リスト
- Evidence-Enhanced Triplet Generation Framework for Hallucination Alleviation in Generative Question Answering [41.990482015732574]
本稿では,三重項(クエスト,エビデンス,アンスワー)の組合せを予測するための新しいエビデンス強化三重項生成フレームワークであるEATQAを提案する。
推測段階における証拠から知識を抽出するために,分布ギャップを橋渡しする。
我々のフレームワークは,クエリとエビデンスと応答の間の論理的関係を学習し,同時にエビデンス生成とクエリ応答を改善する。
論文 参考訳(メタデータ) (2024-08-27T13:07:07Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - QACHECK: A Demonstration System for Question-Guided Multi-Hop
Fact-Checking [68.06355980166053]
本稿では,質問誘導型マルチホップFact-Checking(QACHECK)システムを提案する。
クレームの検証に批判的な一連の質問をすることで、モデルの推論プロセスを導く。
各質問を支持する証拠の源となり、透明で説明可能な、ユーザフレンドリーな事実チェックプロセスが育まれます。
論文 参考訳(メタデータ) (2023-10-11T15:51:53Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - ReasonChainQA: Text-based Complex Question Answering with Explainable
Evidence Chains [15.837457557803507]
説明的および明示的なエビデンス連鎖を有するベンチマーク textbfReasonChainQA を提案する。
ReasonChainQAは、回答生成とエビデンス連鎖抽出という2つのサブタスクから構成される。
教師付きおよび教師なし検索に関する追加実験は、ReasonChainQAの重要性を十分に示している。
論文 参考訳(メタデータ) (2022-10-17T06:07:39Z) - Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation [22.20733260041759]
我々は、QAモデルの解釈可能性を高めるために、解答の証拠が重要であると論じる。
我々は、証拠の概念を、情報的で簡潔で読みやすい文脈における支援事実として明確に定義する最初の人物である。
本稿では, トレードオフ情報性, 簡潔性, 可読性からエビデンスを抽出するGCEDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-13T17:18:17Z) - REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement [130.8875535449478]
REM-Netは、答えを説明できない低品質な証拠を消去することで証拠を洗練するためのモジュールを備えている。
既存の知識ベースから証拠を取得する代わりに、REM-Netは事前訓練された生成モデルを利用して、質問用にカスタマイズされた候補証拠を生成する。
結果はREM-Netの性能を示し、洗練された証拠が説明可能であることを示します。
論文 参考訳(メタデータ) (2020-12-24T10:07:32Z) - Challenges in Information-Seeking QA: Unanswerable Questions and
Paragraph Retrieval [46.3246135936476]
情報検索クエリの応答がより難しい理由と,その原因を解析する。
制御実験の結果,2つのヘッドルーム – 段落選択と応答可能性予測 – が示唆された。
私たちは6つの言語で800の未解決例を手動で注釈付けします。
論文 参考訳(メタデータ) (2020-10-22T17:48:17Z) - SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions [66.86887670416193]
現状のVQAモデルでは、知覚や推論の問題に答える上で同等の性能を持つが、一貫性の問題に悩まされていることを示す。
この欠点に対処するため、サブクエスト対応ネットワークチューニング(SQuINT)というアプローチを提案する。
我々は,SQuINTがモデル一貫性を5%向上し,VQAにおける推論問題の性能も改善し,注意マップも改善したことを示す。
論文 参考訳(メタデータ) (2020-01-20T01:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。