論文の概要: Beyond Fact Verification: Comparing and Contrasting Claims on
Contentious Topics
- arxiv url: http://arxiv.org/abs/2205.12221v1
- Date: Tue, 24 May 2022 17:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 16:55:23.600910
- Title: Beyond Fact Verification: Comparing and Contrasting Claims on
Contentious Topics
- Title(参考訳): 事実検証を超えて - 論争的なトピックに関する主張の比較と対比
- Authors: Miyoung Ko, Ingyu Seong, Hwaran Lee, Joonsuk Park, Minsuk Chang,
Minjoon Seo
- Abstract要約: ClaimDiffは、クレームペア間のニュアンスを識別的および生成的両方の方法で比較する、新しいデータセットである。
これは、絶対真理に関して対象の文を検証する既存の事実検証データセットとは異なる。
- 参考スコア(独自算出の注目度): 23.260333361646495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the importance of identifying misinformation is increasing, many
researchers focus on verifying textual claims on the web. One of the most
popular tasks to achieve this is fact verification, which retrieves an evidence
sentence from a large knowledge source such as Wikipedia to either verify or
refute each factual claim. However, while such problem formulation is helpful
for detecting false claims and fake news, it is not applicable to catching
subtle differences in factually consistent claims which still might implicitly
bias the readers, especially in contentious topics such as political, gender,
or racial issues. In this study, we propose ClaimDiff, a novel dataset to
compare the nuance between claim pairs in both a discriminative and a
generative manner, with the underlying assumption that one is not necessarily
more true than the other. This differs from existing fact verification datasets
that verify the target sentence with respect to an absolute truth. We hope this
task assists people in making more informed decisions among various sources of
media.
- Abstract(参考訳): 誤情報を識別することの重要性が高まるにつれて、多くの研究者がウェブ上のテキストクレームの検証に注力している。
これを達成するための最も一般的なタスクの1つは事実検証であり、ウィキペディアのような大きな知識ソースから証拠文を取得し、各事実の主張を検証または否定する。
しかし、このような問題の定式化は、虚偽の主張や偽のニュースを検出するのに役立つが、特に政治的、性別、人種問題などの論争的な話題において、読者に暗黙的に偏見を抱くような、事実的に一貫性のある主張の微妙な相違を捉えるには適用できない。
本研究では,識別と生成の両方法におけるクレームペア間のニュアンスを,一方が他方よりも必ずしも真ではないという前提の下で比較する新しいデータセットであるCrimDiffを提案する。
これは、絶対真理に関して対象文を検証する既存の事実検証データセットとは異なる。
このタスクが、さまざまなメディアソースのより深い意思決定を支援することを願っています。
関連論文リスト
- Grounding Fallacies Misrepresenting Scientific Publications in Evidence [84.32990746227385]
誤検出データセットMisciの拡張であるMisciPlusを紹介する。
MissciPlusはMissci上に構築されており、誤表現された研究から現実世界の通路で適用された誤報を根拠にしている。
MissciPlusは、現実世界の誤った証拠と誤った主張を組み合わせた最初の論理的誤認データセットである。
論文 参考訳(メタデータ) (2024-08-23T03:16:26Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - What Makes Medical Claims (Un)Verifiable? Analyzing Entity and Relation
Properties for Fact Verification [8.086400003948143]
BEAR-Factコーパス(BEAR-Fact corpus)は、科学的事実検証のための最初のコーパスである。
クレームテキストから純粋に証拠検索の成功を確実に推定できることを示す。
データセットはhttp://www.ims.uni-stuttgart.de/data/bioclaimで公開されている。
論文 参考訳(メタデータ) (2024-02-02T12:27:58Z) - Leveraging Social Discourse to Measure Check-worthiness of Claims for
Fact-checking [36.21314290592325]
CheckItは、手動でアノテートされた大規模なTwitterデータセットで、きめ細かいクレームチェックの安全性を提供する。
私たちは、クレームがチェックに値するかどうかを共同で判断する統一的なアプローチであるCheckMateに対して、データセットをベンチマークします。
論文 参考訳(メタデータ) (2023-09-17T13:42:41Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Robust Information Retrieval for False Claims with Distracting Entities
In Fact Extraction and Verification [2.624734563929267]
本論文は, 真理クレームと比較して, 証拠検索モデルに注意をそらすような無関係な実体を, 虚偽クレームの方が頻繁に含んでいることを示す。
BERTベースの検索モデルは、本当の主張の証拠を支持することよりも、虚偽の主張に対する反論の証拠を回収することに間違いを犯した。
論文 参考訳(メタデータ) (2021-12-10T17:11:50Z) - Topic-Aware Evidence Reasoning and Stance-Aware Aggregation for Fact
Verification [19.130541561303293]
本稿では,事実検証のための新たな話題認識型証拠推論とスタンス認識型アグリゲーションモデルを提案する。
2つのベンチマークデータセットで実施されたテストは、事実検証のためのいくつかの最先端アプローチよりも提案モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T14:33:12Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z) - Claim Check-Worthiness Detection as Positive Unlabelled Learning [53.24606510691877]
クレームチェックの信頼性検出はファクトチェックシステムにおいて重要な要素である。
これらの課題の根底にあるクレームチェックの信頼性検出における中心的な課題を照明する。
我々の最良の手法は、正の非競合学習の変種を用いて、これを自動的に修正する統一的なアプローチである。
論文 参考訳(メタデータ) (2020-03-05T16:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。