論文の概要: Explainable Automated Fact-Checking for Public Health Claims
- arxiv url: http://arxiv.org/abs/2010.09926v1
- Date: Mon, 19 Oct 2020 23:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:28:40.056431
- Title: Explainable Automated Fact-Checking for Public Health Claims
- Title(参考訳): 公衆衛生クレームに対する説明可能なファクトチェック
- Authors: Neema Kotonya and Francesca Toni
- Abstract要約: 本稿では,特定の専門知識を必要とするクレームに対する説明可能なファクトチェックに関する最初の研究について述べる。
ケーススタディでは公衆衛生の設定を選択します。
正確性予測と説明生成という2つの課題を探求する。
- 参考スコア(独自算出の注目度): 11.529816799331979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fact-checking is the task of verifying the veracity of claims by assessing
their assertions against credible evidence. The vast majority of fact-checking
studies focus exclusively on political claims. Very little research explores
fact-checking for other topics, specifically subject matters for which
expertise is required. We present the first study of explainable fact-checking
for claims which require specific expertise. For our case study we choose the
setting of public health. To support this case study we construct a new dataset
PUBHEALTH of 11.8K claims accompanied by journalist crafted, gold standard
explanations (i.e., judgments) to support the fact-check labels for claims. We
explore two tasks: veracity prediction and explanation generation. We also
define and evaluate, with humans and computationally, three coherence
properties of explanation quality. Our results indicate that, by training on
in-domain data, gains can be made in explainable, automated fact-checking for
claims which require specific expertise.
- Abstract(参考訳): ファクトチェック(Fact-checking)は、信頼できる証拠に対する主張を評価することによって、クレームの正確性を検証するタスクである。
事実確認研究の大半は政治的主張にのみ焦点をあてている。
他のトピックのファクトチェック、特に専門知識が必要な主題に関する研究はほとんどない。
具体的な専門知識を必要とするクレームに対する説明可能なファクトチェックに関する最初の研究について述べる。
ケーススタディでは公衆衛生の設定を選択します。
このケーススタディをサポートするために、11.8Kクレームの新たなデータセット PUBHEALTH を構築し、クレームのファクトチェックラベルをサポートするためにジャーナリストが作成した金本位制の説明(すなわち判断)を添えた。
正確性予測と説明生成という2つの課題を探求する。
また,説明品質の3つのコヒーレンス特性を人間と計算によって定義し,評価する。
その結果、ドメイン内データのトレーニングにより、特定の専門知識を必要とするクレームに対して、説明可能な自動ファクトチェックが可能となる。
関連論文リスト
- Robust Claim Verification Through Fact Detection [17.29665711917281]
我々の新しいアプローチであるFactDetectは、大規模言語モデル(LLM)を利用して、証拠から簡潔な事実文を生成する。
生成された事実は、クレームとエビデンスと組み合わせられる。
提案手法は,F1スコアにおいて,教師付きクレーム検証モデルにおいて,15%の競合結果を示す。
論文 参考訳(メタデータ) (2024-07-25T20:03:43Z) - AFaCTA: Assisting the Annotation of Factual Claim Detection with Reliable LLM Annotators [38.523194864405326]
AFaCTAは、事実主張のアノテーションを支援する新しいフレームワークである。
AFaCTAは、3つの事前定義された推論経路に沿って、アノテーションの信頼度を一貫性で調整する。
PoliClaimは、さまざまな政治的トピックにまたがる包括的なクレーム検出データセットである。
論文 参考訳(メタデータ) (2024-02-16T20:59:57Z) - What Makes Medical Claims (Un)Verifiable? Analyzing Entity and Relation
Properties for Fact Verification [8.086400003948143]
BEAR-Factコーパス(BEAR-Fact corpus)は、科学的事実検証のための最初のコーパスである。
クレームテキストから純粋に証拠検索の成功を確実に推定できることを示す。
データセットはhttp://www.ims.uni-stuttgart.de/data/bioclaimで公開されている。
論文 参考訳(メタデータ) (2024-02-02T12:27:58Z) - Decker: Double Check with Heterogeneous Knowledge for Commonsense Fact
Verification [80.31112722910787]
異種知識をブリッジ可能な常識的事実検証モデルであるDeckerを提案する。
CSQA2.0とCREAKの2つのコモンセンス事実検証ベンチマークデータセットの実験結果から,Deckerの有効性が示された。
論文 参考訳(メタデータ) (2023-05-10T06:28:16Z) - Missing Counter-Evidence Renders NLP Fact-Checking Unrealistic for
Misinformation [67.69725605939315]
誤報は、信頼できる情報が限られている不確実な時に現れる。
NLPベースのファクトチェックは、まだ利用できないかもしれない反証拠に依存しているため、これは難しい。
論文 参考訳(メタデータ) (2022-10-25T09:40:48Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Generating Scientific Claims for Zero-Shot Scientific Fact Checking [54.62086027306609]
科学言語の複雑さと大量のトレーニングデータが不足しているため、自動科学的事実チェックは困難である。
科学的な文から1つ以上の原子的かつ検証可能なクレームを生成するための科学的クレーム生成を提案する。
また, バイオメディカルクレームのゼロショット事実チェックにも有用であることを示す。
論文 参考訳(メタデータ) (2022-03-24T11:29:20Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。