論文の概要: Varifocal Question Generation for Fact-checking
- arxiv url: http://arxiv.org/abs/2210.12400v1
- Date: Sat, 22 Oct 2022 09:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 15:58:33.599721
- Title: Varifocal Question Generation for Fact-checking
- Title(参考訳): ファクトチェックのための変分質問生成
- Authors: Nedjma Ousidhoum, Zhangdie Yuan, Andreas Vlachos
- Abstract要約: 与えられたクレーム内の異なる焦点点に基づいて質問を生成する方法であるVarifocalを提案する。
本手法は, ファクトチェックによる質問生成データセットにおいて, 過去の作業よりも優れていた。
- 参考スコア(独自算出の注目度): 15.244813462174614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fact-checking requires retrieving evidence related to a claim under
investigation. The task can be formulated as question generation based on a
claim, followed by question answering. However, recent question generation
approaches assume that the answer is known and typically contained in a passage
given as input, whereas such passages are what is being sought when verifying a
claim. In this paper, we present {\it Varifocal}, a method that generates
questions based on different focal points within a given claim, i.e.\ different
spans of the claim and its metadata, such as its source and date. Our method
outperforms previous work on a fact-checking question generation dataset on a
wide range of automatic evaluation metrics. These results are corroborated by
our manual evaluation, which indicates that our method generates more relevant
and informative questions. We further demonstrate the potential of focal points
in generating sets of clarification questions for product descriptions.
- Abstract(参考訳): Fact-checkingは、調査中のクレームに関連する証拠を回収する必要がある。
タスクはクレームに基づいて質問生成として定式化でき、続いて質問応答を行う。
しかし、近年の質問生成手法では、解答は既知のものであり、通常入力として与えられる節に含まれると仮定する一方、これらの節はクレームを検証する際に求められているものである。
本稿では,所定のクレーム内の異なる焦点点,すなわち,そのクレームとそのメタデータの異なる範囲,すなわちソースや日付に基づいて質問を生成する手法である {\it Varifocal}を提案する。
提案手法は, 広範囲の自動評価指標を用いたファクトチェック質問生成データセットの先行研究に匹敵する。
これらの結果は手作業による評価によって裏付けられ,本手法はより関連性の高い質問を生成できることを示す。
さらに,製品記述の明確化問題の生成における焦点のポテンシャルについても述べる。
関連論文リスト
- ScopeQA: A Framework for Generating Out-of-Scope Questions for RAG [52.33835101586687]
会話AIエージェントはRetrieval Augmented Generation(RAG)を使用して、ユーザからの問い合わせに対して検証可能なドキュメント地上応答を提供する。
本稿では,多様な境界線外質問を効率よく生成する,ガイド付き幻覚に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - QuestGen: Effectiveness of Question Generation Methods for Fact-Checking Applications [1.6804613362826175]
機械学習による質問は、事実確認のクレームに有効であることを示す。
意外なことに、機械による質問で得られた証拠は、人間が書いた質問よりも、事実チェックにかなり効果的であることが証明されている。
論文 参考訳(メタデータ) (2024-07-31T08:44:29Z) - PAQA: Toward ProActive Open-Retrieval Question Answering [34.883834970415734]
本研究の目的は、ユーザクエリとドキュメントの両方に存在する固有の曖昧さを考慮し、関連性のある明確な質問を生成するという課題に取り組むことである。
本稿では,既存のAmbiNQデータセットの拡張であるPAQAを提案する。
次に,様々なモデルの評価を行い,経路探索があいまいさの検出と明瞭な質問の生成にどのように影響するかを評価する。
論文 参考訳(メタデータ) (2024-02-26T14:40:34Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - When to Read Documents or QA History: On Unified and Selective
Open-domain QA [22.941325275188376]
本稿では,知識資源を活用した多様な質問に答えることを目的として,オープンドメイン質問応答の問題について検討する。
QAペアと文書コーパスの2種類のソースは、以下の相補的な強度で積極的に活用されている。
したがって、自然なフォローアップが両方のモデルを活用する一方で、単純でパイプライニングや統合的なアプローチは、どちらのモデルよりも追加的な利益をもたらすことができませんでした。
論文 参考訳(メタデータ) (2023-06-07T06:03:39Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Asking It All: Generating Contextualized Questions for any Semantic Role [56.724302729493594]
本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
論文 参考訳(メタデータ) (2021-09-10T12:31:14Z) - Reinforcement Learning for Abstractive Question Summarization with
Question-aware Semantic Rewards [20.342580435464072]
本稿では,抽象的な質問要約のための強化学習に基づくフレームワークを提案する。
i)質問型識別と(ii)質問焦点認識の下流タスクから得られる2つの新しい報酬を提案する。
これらの報酬は意味論的に有効な質問の生成を確実にし、質問要約に重要な医療機関/焦点を取り入れることを奨励する。
論文 参考訳(メタデータ) (2021-07-01T02:06:46Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。