論文の概要: COVID-Fact: Fact Extraction and Verification of Real-World Claims on
COVID-19 Pandemic
- arxiv url: http://arxiv.org/abs/2106.03794v1
- Date: Mon, 7 Jun 2021 16:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 21:44:01.022247
- Title: COVID-Fact: Fact Extraction and Verification of Real-World Claims on
COVID-19 Pandemic
- Title(参考訳): 新型コロナウイルス(covid-19)パンデミックをめぐる現実の主張の事実抽出と検証
- Authors: Arkadiy Saakyan, Tuhin Chakrabarty, and Smaranda Muresan
- Abstract要約: 我々は、COVID-19パンデミックに関する4,086ドルという、FEVERに似たデータセットのCOVID-Factを紹介します。
データセットには、クレーム、クレームの証拠、および証拠によって否定される矛盾するクレームが含まれている。
- 参考スコア(独自算出の注目度): 12.078052727772718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a FEVER-like dataset COVID-Fact of $4,086$ claims concerning the
COVID-19 pandemic. The dataset contains claims, evidence for the claims, and
contradictory claims refuted by the evidence. Unlike previous approaches, we
automatically detect true claims and their source articles and then generate
counter-claims using automatic methods rather than employing human annotators.
Along with our constructed resource, we formally present the task of
identifying relevant evidence for the claims and verifying whether the evidence
refutes or supports a given claim. In addition to scientific claims, our data
contains simplified general claims from media sources, making it better suited
for detecting general misinformation regarding COVID-19. Our experiments
indicate that COVID-Fact will provide a challenging testbed for the development
of new systems and our approach will reduce the costs of building
domain-specific datasets for detecting misinformation.
- Abstract(参考訳): われわれは、COVID-19パンデミックに関する4,086ドルというFEVERに似たデータセットを紹介。
データセットには、クレーム、クレームの証拠、および証拠によって否定される矛盾するクレームが含まれている。
従来のアプローチとは違って,真のクレームとそのソース記事を自動的に検出し,人間のアノテータを使わずに自動手法で反論文を生成する。
構築した資料とともに,クレームの関連証拠を同定し,その証拠が所定のクレームに反抗するか,支持するかを検証するタスクを正式に提示する。
科学的な主張に加えて、われわれのデータにはメディアソースからの簡易な一般的な主張が含まれており、COVID-19に関する一般的な誤報を検出するのに適している。
我々の実験は、COVID-Factが新しいシステムを開発するための挑戦的なテストベッドを提供することを示し、我々のアプローチは、誤情報を検出するためのドメイン固有のデータセットを構築するコストを削減できることを示唆している。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Minimal Evidence Group Identification for Claim Verification [15.8357231063287]
クレーム検証のための最小限のエビデンスグループ(MEG)を同定する問題について検討する。
本稿では,ある証拠群がクレームに完全/部分的支持を与えるか否かの詳細な推測に基づいて,MEGの識別をセットカバー問題から低減できることを示す。
提案手法は、WiCEおよびSciFactデータセットの18.4%と34.8%の絶対的な改善を実現する。
論文 参考訳(メタデータ) (2024-04-24T01:44:09Z) - AVeriTeC: A Dataset for Real-world Claim Verification with Evidence from
the Web [20.576644330553744]
AVeriTeCは、50の異なる組織によるファクトチェックをカバーする4,568の現実世界のクレームの新しいデータセットである。
それぞれのクレームには、オンラインで利用可能な証拠によって支持される質問と回答のペアと、証拠がどのように組み合わさって判断を下すかを説明する文章の正当性が含まれている。
論文 参考訳(メタデータ) (2023-05-22T15:17:18Z) - Complex Claim Verification with Evidence Retrieved in the Wild [73.19998942259073]
Webから生の証拠を取り出すことによって,実世界のクレームをチェックするための,最初の完全自動化パイプラインを提示する。
私たちのパイプラインには,クレーム分解,生文書検索,きめ細かい証拠検索,クレーム中心の要約,正確性判定という5つのコンポーネントが含まれています。
論文 参考訳(メタデータ) (2023-05-19T17:49:19Z) - WiCE: Real-World Entailment for Claims in Wikipedia [63.234352061821625]
We propose WiCE, a new fine-fine textual entailment dataset built on natural claim and evidence pairs from Wikipedia。
標準クレームレベルのエンターメントに加えて、WiCEはクレームのサブ文単位に対するエンターメント判断を提供する。
我々のデータセットの真のクレームは、既存のモデルで対処できない検証と検索の問題に挑戦することを含んでいる。
論文 参考訳(メタデータ) (2023-03-02T17:45:32Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Generating Scientific Claims for Zero-Shot Scientific Fact Checking [54.62086027306609]
科学言語の複雑さと大量のトレーニングデータが不足しているため、自動科学的事実チェックは困難である。
科学的な文から1つ以上の原子的かつ検証可能なクレームを生成するための科学的クレーム生成を提案する。
また, バイオメディカルクレームのゼロショット事実チェックにも有用であることを示す。
論文 参考訳(メタデータ) (2022-03-24T11:29:20Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。