論文の概要: Leveraging Social Discourse to Measure Check-worthiness of Claims for
Fact-checking
- arxiv url: http://arxiv.org/abs/2309.09274v1
- Date: Sun, 17 Sep 2023 13:42:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 16:31:43.055194
- Title: Leveraging Social Discourse to Measure Check-worthiness of Claims for
Fact-checking
- Title(参考訳): ファクトチェックのためのクレームのチェック適性を測定するための社会的談話の活用
- Authors: Megha Sundriyal, Md Shad Akhtar, Tanmoy Chakraborty
- Abstract要約: CheckItは、手動でアノテートされた大規模なTwitterデータセットで、きめ細かいクレームチェックの安全性を提供する。
私たちは、クレームがチェックに値するかどうかを共同で判断する統一的なアプローチであるCheckMateに対して、データセットをベンチマークします。
- 参考スコア(独自算出の注目度): 36.21314290592325
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The expansion of online social media platforms has led to a surge in online
content consumption. However, this has also paved the way for disseminating
false claims and misinformation. As a result, there is an escalating demand for
a substantial workforce to sift through and validate such unverified claims.
Currently, these claims are manually verified by fact-checkers. Still, the
volume of online content often outweighs their potency, making it difficult for
them to validate every single claim in a timely manner. Thus, it is critical to
determine which assertions are worth fact-checking and prioritize claims that
require immediate attention. Multiple factors contribute to determining whether
a claim necessitates fact-checking, encompassing factors such as its factual
correctness, potential impact on the public, the probability of inciting
hatred, and more. Despite several efforts to address claim check-worthiness, a
systematic approach to identify these factors remains an open challenge. To
this end, we introduce a new task of fine-grained claim check-worthiness, which
underpins all of these factors and provides probable human grounds for
identifying a claim as check-worthy. We present CheckIt, a manually annotated
large Twitter dataset for fine-grained claim check-worthiness. We benchmark our
dataset against a unified approach, CheckMate, that jointly determines whether
a claim is check-worthy and the factors that led to that conclusion. We compare
our suggested system with several baseline systems. Finally, we report a
thorough analysis of results and human assessment, validating the efficacy of
integrating check-worthiness factors in detecting claims worth fact-checking.
- Abstract(参考訳): オンラインソーシャルメディアプラットフォームの拡大は、オンラインコンテンツ消費の急増につながっている。
しかし、これは虚偽の主張や誤報を広める道を開いた。
その結果、実質的な労働力の要求が増大し、そのような不確実なクレームを回避し、検証する。
現在、これらの主張はファクトチェッカーによって手動で検証されている。
それでも、オンラインコンテンツの量は、しばしばその強みを上回っており、すべての主張をタイムリーに検証することは困難である。
したがって、どの主張が事実確認に値するかを判断し、直ちに注意を要する主張を優先することが重要である。
クレームが事実確認を必要とするかどうか、その事実の正しさ、公衆への影響の可能性、憎しみを誘発する確率などを含む複数の要因が決定に寄与する。
クレームチェックの信頼性に関するいくつかの取り組みにもかかわらず、これらの要因を特定するための体系的なアプローチは、依然としてオープンな課題である。
そこで本研究では,これらすべての要因を基礎として,請求項のチェック価値を識別するための人間的根拠を提示する,クレームチェックの精細化という新たな課題について紹介する。
CheckItは、手動でアノテートされた大規模なTwitterデータセットで、きめ細かいクレームチェックの安全性を提供する。
私たちは、クレームがチェックに値するかどうかを共同で判断する統一的なアプローチであるCheckMateに対して、データセットをベンチマークします。
提案システムといくつかのベースラインシステムを比較した。
最後に、結果と人格評価の徹底的な分析を行い、事実確認に値するクレームの検出におけるチェック評価要素の統合の有効性を検証する。
関連論文リスト
- From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - Complex Claim Verification with Evidence Retrieved in the Wild [73.19998942259073]
Webから生の証拠を取り出すことによって,実世界のクレームをチェックするための,最初の完全自動化パイプラインを提示する。
私たちのパイプラインには,クレーム分解,生文書検索,きめ細かい証拠検索,クレーム中心の要約,正確性判定という5つのコンポーネントが含まれています。
論文 参考訳(メタデータ) (2023-05-19T17:49:19Z) - Read it Twice: Towards Faithfully Interpretable Fact Verification by
Revisiting Evidence [59.81749318292707]
本稿では,証拠の検索とクレームの検証を行うためにReReadという名前の事実検証モデルを提案する。
提案システムは,異なる設定下での最良のレポートモデルに対して,大幅な改善を実現することができる。
論文 参考訳(メタデータ) (2023-05-02T03:23:14Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Assisting the Human Fact-Checkers: Detecting All Previously Fact-Checked
Claims in a Document [27.076320857009655]
入力文書が与えられた場合、以前に事実確認されたクレームによって検証可能なクレームを含むすべての文を検出することを目的としている。
出力は文書文の再ランクリストであり、検証可能なものは可能な限り高くランク付けされる。
本分析は,テキストの類似性やスタンスをモデル化することの重要性を実証すると同時に,検索した事実チェックされたクレームの正確性も考慮する。
論文 参考訳(メタデータ) (2021-09-14T13:46:52Z) - Explainable Automated Fact-Checking for Public Health Claims [11.529816799331979]
本稿では,特定の専門知識を必要とするクレームに対する説明可能なファクトチェックに関する最初の研究について述べる。
ケーススタディでは公衆衛生の設定を選択します。
正確性予測と説明生成という2つの課題を探求する。
論文 参考訳(メタデータ) (2020-10-19T23:51:33Z) - Too Many Claims to Fact-Check: Prioritizing Political Claims Based on
Check-Worthiness [1.2891210250935146]
本報告では, チェックの信頼性に基づいて, クレームの優先順位付けを行うモデルを提案する。
BERTモデルにはドメイン固有の議論の的となっているトピックや単語の埋め込みなどが追加されています。
論文 参考訳(メタデータ) (2020-04-17T10:55:07Z) - Claim Check-Worthiness Detection as Positive Unlabelled Learning [53.24606510691877]
クレームチェックの信頼性検出はファクトチェックシステムにおいて重要な要素である。
これらの課題の根底にあるクレームチェックの信頼性検出における中心的な課題を照明する。
我々の最良の手法は、正の非競合学習の変種を用いて、これを自動的に修正する統一的なアプローチである。
論文 参考訳(メタデータ) (2020-03-05T16:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。