論文の概要: That is a Known Lie: Detecting Previously Fact-Checked Claims
- arxiv url: http://arxiv.org/abs/2005.06058v1
- Date: Tue, 12 May 2020 21:25:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:32:39.657456
- Title: That is a Known Lie: Detecting Previously Fact-Checked Claims
- Title(参考訳): それは既知の嘘だ:以前に事実確認された主張を検知する
- Authors: Shaden Shaar, Giovanni Da San Martino, Nikolay Babulkov, Preslav Nakov
- Abstract要約: 多数の事実確認済みのクレームが蓄積されている。
政治家は、自分の好きな言葉、真実か偽かを繰り返し繰り返すのが好きだ。
この努力を節約し、すでに事実確認済みのクレームの無駄な時間を省くことが重要です。
- 参考スコア(独自算出の注目度): 34.30218503006579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent proliferation of "fake news" has triggered a number of responses,
most notably the emergence of several manual fact-checking initiatives. As a
result and over time, a large number of fact-checked claims have been
accumulated, which increases the likelihood that a new claim in social media or
a new statement by a politician might have already been fact-checked by some
trusted fact-checking organization, as viral claims often come back after a
while in social media, and politicians like to repeat their favorite
statements, true or false, over and over again. As manual fact-checking is very
time-consuming (and fully automatic fact-checking has credibility issues), it
is important to try to save this effort and to avoid wasting time on claims
that have already been fact-checked. Interestingly, despite the importance of
the task, it has been largely ignored by the research community so far. Here,
we aim to bridge this gap. In particular, we formulate the task and we discuss
how it relates to, but also differs from, previous work. We further create a
specialized dataset, which we release to the research community. Finally, we
present learning-to-rank experiments that demonstrate sizable improvements over
state-of-the-art retrieval and textual similarity approaches.
- Abstract(参考訳): 近年の「フェイクニュース」の普及は、いくつかの手動の事実チェックイニシアチブの出現など、多くの反応を引き起こしている。
その結果、多くの事実チェックされた主張が蓄積され、ソーシャルメディアにおける新たな主張や政治家による新たな声明が、信頼できる事実チェック組織によって既に事実チェックされている可能性が高まっている。
手動の事実チェックは非常に時間がかかる(かつ完全に自動的な事実チェックには信頼性の問題がある)ため、この労力を節約し、すでに事実チェック済みの主張に時間を費やすことを避けることが重要である。
興味深いことに、タスクの重要性にもかかわらず、これまで研究コミュニティからは無視されてきた。
ここではこのギャップを埋めることを目指しています。
特に、タスクを定式化し、それがどのように関連しているかを議論するが、以前の作業とは異なっている。
さらに専門的なデータセットを作成し、研究コミュニティにリリースします。
最後に、最先端検索とテキスト類似性アプローチの大幅な改善を実証する学習 to ランク実験を提案する。
関連論文リスト
- Fact-checking information from large language models can decrease headline discernment [6.814801748069122]
本稿では,人気大言語モデルが生成した事実確認情報が,政治ニュースの見出しの信条や共有意図に与える影響について検討する。
この情報は、見出しの正確さを識別したり、正確なニュースを共有したりする参加者の能力を大幅に向上させるものではない。
我々の発見は、AIアプリケーションから生じる潜在的な害の重大な原因を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-08-21T15:47:37Z) - Missing Counter-Evidence Renders NLP Fact-Checking Unrealistic for
Misinformation [67.69725605939315]
誤報は、信頼できる情報が限られている不確実な時に現れる。
NLPベースのファクトチェックは、まだ利用できないかもしれない反証拠に依存しているため、これは難しい。
論文 参考訳(メタデータ) (2022-10-25T09:40:48Z) - CrowdChecked: Detecting Previously Fact-Checked Claims in Social Media [19.688259030184508]
修正された自己適応学習に基づいてノイズの多いデータから学習するエンド・ツー・エンドのフレームワークを提案する。
CLEF'21 CheckThat!テストセットの実験では,2点の絶対値による技術状況の改善が示されている。
論文 参考訳(メタデータ) (2022-10-10T06:05:52Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Can online attention signals help fact-checkers fact-check? [11.65819327593072]
本稿では,オンライン注意信号を用いたファクトチェックの枠組みを提案する。
我々はこのフレームワークを使用して、2020年に81の国際機関が実施した879のCOVID-19関連ファクトチェックのデータセットを予備調査します。
論文 参考訳(メタデータ) (2021-09-20T06:51:59Z) - Assisting the Human Fact-Checkers: Detecting All Previously Fact-Checked
Claims in a Document [27.076320857009655]
入力文書が与えられた場合、以前に事実確認されたクレームによって検証可能なクレームを含むすべての文を検出することを目的としている。
出力は文書文の再ランクリストであり、検証可能なものは可能な限り高くランク付けされる。
本分析は,テキストの類似性やスタンスをモデル化することの重要性を実証すると同時に,検索した事実チェックされたクレームの正確性も考慮する。
論文 参考訳(メタデータ) (2021-09-14T13:46:52Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - The Role of Context in Detecting Previously Fact-Checked Claims [27.076320857009655]
我々は、文脈が本当に重要である政治的議論でなされた主張に焦点を当てている。
本稿では,事実確認説明書において,クレームのコンテキストをソース側とターゲット側の両方でモデル化することの影響について検討する。
論文 参考訳(メタデータ) (2021-04-15T12:39:37Z) - Generating Fact Checking Briefs [97.82546239639964]
本研究では, 事実確認の精度と効率を高めるために, 事実確認を行う前に, クレームに関する情報を提供することにより, 事実確認の精度と効率を高める方法について検討する。
我々は,クレームに条件付き質問セットを生成し,証拠を検索し,回答を生成するモデルQABrieferを開発した。
本研究では,特にQABriefsにおけるブリーフィングによる事実チェックによって,クラウドワーカーの精度が10%向上すると同時に,時間もわずかに低下することを示す。
論文 参考訳(メタデータ) (2020-11-10T23:02:47Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。