論文の概要: Generating Literal and Implied Subquestions to Fact-check Complex Claims
- arxiv url: http://arxiv.org/abs/2205.06938v1
- Date: Sat, 14 May 2022 00:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 15:51:50.441617
- Title: Generating Literal and Implied Subquestions to Fact-check Complex Claims
- Title(参考訳): ファクトチェック複雑なクレームに対するリテラルおよびインプリッド要求の生成
- Authors: Jifan Chen, Aniruddh Sriram, Eunsol Choi, Greg Durrett
- Abstract要約: 我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
- 参考スコア(独自算出の注目度): 64.81832149826035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Verifying complex political claims is a challenging task, especially when
politicians use various tactics to subtly misrepresent the facts. Automatic
fact-checking systems fall short here, and their predictions like "half-true"
are not very useful in isolation, since we have no idea which parts of the
claim are true and which are not. In this work, we focus on decomposing a
complex claim into a comprehensive set of yes-no subquestions whose answers
influence the veracity of the claim. We present ClaimDecomp, a dataset of
decompositions for over 1000 claims. Given a claim and its verification
paragraph written by fact-checkers, our trained annotators write subquestions
covering both explicit propositions of the original claim and its implicit
facets, such as asking about additional political context that changes our view
of the claim's veracity. We study whether state-of-the-art models can generate
such subquestions, showing that these models generate reasonable questions to
ask, but predicting the comprehensive set of subquestions from the original
claim without evidence remains challenging. We further show that these
subquestions can help identify relevant evidence to fact-check the full claim
and derive the veracity through their answers, suggesting that they can be
useful pieces of a fact-checking pipeline.
- Abstract(参考訳): 複雑な政治的主張の検証は、特に政治家が事実を微妙に誤って表現するために様々な戦術を使う場合、難しい課題である。
自動事実チェックシステムはここでは不足しており、主張のどの部分が真実で、どれがそうでないか分からないので、"半真"のような予測は単独ではあまり役に立たない。
本研究では,複雑なクレームを,そのクレームの妥当性に影響を及ぼすイエス・ノー・サブクエストの包括的集合に分解することに焦点を当てる。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
事実確認者によって書かれたクレームとその検証段落について、我々の訓練された注釈家は、元のクレームとその暗黙のファセットの明示的な提案の両方をカバーするサブクエスチョーションを書きます。
現状のモデルがそのようなサブクエストを生成できるかどうかを考察し、これらのモデルが合理的な質問を生成できることを示したが、証拠のない元のクエストからの包括的なサブクエストセットを予測することは依然として困難である。
さらに,これらのサブクエストは,クレームの全文をファクトチェックする関連エビデンスを識別し,その回答を通じて検証性を引き出すのに役立つことを示し,ファクトチェックパイプラインの有用な部分となることを示唆する。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Navigating the Noisy Crowd: Finding Key Information for Claim Verification [19.769771741059408]
EAConは,証拠の中から重要な情報を見つけ出し,請求項の各側面を個別に検証するフレームワークである。
Ecconはクレームからキーワードを見つけ出し、ファジィマッチングを使用して、生のエビデンスごとに関連するキーワードを選択する。
Ecconは、元の主張をサブステートに分解し、個別に抽象化された証拠と生の証拠の両方に対して検証される。
論文 参考訳(メタデータ) (2024-07-17T09:24:10Z) - QACHECK: A Demonstration System for Question-Guided Multi-Hop
Fact-Checking [68.06355980166053]
本稿では,質問誘導型マルチホップFact-Checking(QACHECK)システムを提案する。
クレームの検証に批判的な一連の質問をすることで、モデルの推論プロセスを導く。
各質問を支持する証拠の源となり、透明で説明可能な、ユーザフレンドリーな事実チェックプロセスが育まれます。
論文 参考訳(メタデータ) (2023-10-11T15:51:53Z) - AVeriTeC: A Dataset for Real-world Claim Verification with Evidence from
the Web [20.576644330553744]
AVeriTeCは、50の異なる組織によるファクトチェックをカバーする4,568の現実世界のクレームの新しいデータセットである。
それぞれのクレームには、オンラインで利用可能な証拠によって支持される質問と回答のペアと、証拠がどのように組み合わさって判断を下すかを説明する文章の正当性が含まれている。
論文 参考訳(メタデータ) (2023-05-22T15:17:18Z) - Complex Claim Verification with Evidence Retrieved in the Wild [73.19998942259073]
Webから生の証拠を取り出すことによって,実世界のクレームをチェックするための,最初の完全自動化パイプラインを提示する。
私たちのパイプラインには,クレーム分解,生文書検索,きめ細かい証拠検索,クレーム中心の要約,正確性判定という5つのコンポーネントが含まれています。
論文 参考訳(メタデータ) (2023-05-19T17:49:19Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z) - Hierarchical Evidence Set Modeling for Automated Fact Extraction and
Verification [5.836068916903788]
階層的エビデンス・セット・モデリング(Heerarchical Evidence Set Modeling, HESM)は、エビデンス・セットを抽出し、サポート対象のクレームを検証するためのフレームワークである。
実験の結果,HESMは事実抽出とクレーム検証の7つの最先端手法より優れていた。
論文 参考訳(メタデータ) (2020-10-10T22:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。