論文の概要: Automatic Fake News Detection: Are Models Learning to Reason?
- arxiv url: http://arxiv.org/abs/2105.07698v1
- Date: Mon, 17 May 2021 09:34:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 15:00:15.994028
- Title: Automatic Fake News Detection: Are Models Learning to Reason?
- Title(参考訳): フェイクニュースの自動検出 - モデルが推論を学んでいるか?
- Authors: Casper Hansen and Christian Hansen and Lucas Chaves Lima
- Abstract要約: クレームと証拠の両方の関係と重要性を調査します。
驚くべきことに、政治的事実チェックデータセットでは、最も頻繁に最も有効性が高いことが証拠のみを利用して得られます。
これは、既存のフェイクニュース検出手法における証拠を構成する重要な問題である。
- 参考スコア(独自算出の注目度): 9.143551270841858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most fact checking models for automatic fake news detection are based on
reasoning: given a claim with associated evidence, the models aim to estimate
the claim veracity based on the supporting or refuting content within the
evidence. When these models perform well, it is generally assumed to be due to
the models having learned to reason over the evidence with regards to the
claim. In this paper, we investigate this assumption of reasoning, by exploring
the relationship and importance of both claim and evidence. Surprisingly, we
find on political fact checking datasets that most often the highest
effectiveness is obtained by utilizing only the evidence, as the impact of
including the claim is either negligible or harmful to the effectiveness. This
highlights an important problem in what constitutes evidence in existing
approaches for automatic fake news detection.
- Abstract(参考訳): 自動偽ニュース検出のためのほとんどの事実チェックモデルは推論に基づいており、関連する証拠のクレームが与えられた場合、モデルは証拠内のコンテンツのサポートや反証に基づいてクレームの正確性を推定することを目的としている。
これらのモデルがうまく機能すると、一般的には、主張に関して証拠を論じることを学んだモデルが原因であると仮定される。
本稿では,この推論の仮定を,主張と証拠の両方の関係と重要性を探求することによって検討する。
驚くべきことに、最も有効性が高いデータセットは、主張を含む影響が有効性に無視できるか有害であるので、証拠のみを利用することによって得られる。
これは、既存のフェイクニュース検出手法における証拠を構成する重要な問題である。
関連論文リスト
- Grounding Fallacies Misrepresenting Scientific Publications in Evidence [84.32990746227385]
誤検出データセットMisciの拡張であるMisciPlusを紹介する。
MissciPlusはMissci上に構築されており、誤表現された研究から現実世界の通路で適用された誤報を根拠にしている。
MissciPlusは、現実世界の誤った証拠と誤った主張を組み合わせた最初の論理的誤認データセットである。
論文 参考訳(メタデータ) (2024-08-23T03:16:26Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Read it Twice: Towards Faithfully Interpretable Fact Verification by
Revisiting Evidence [59.81749318292707]
本稿では,証拠の検索とクレームの検証を行うためにReReadという名前の事実検証モデルを提案する。
提案システムは,異なる設定下での最良のレポートモデルに対して,大幅な改善を実現することができる。
論文 参考訳(メタデータ) (2023-05-02T03:23:14Z) - Implicit Temporal Reasoning for Evidence-Based Fact-Checking [14.015789447347466]
本研究は,証拠に基づく事実検証のクレーム検証プロセスに時間的効果が有意な影響を及ぼすことを示す。
本研究は, 時間情報の存在と, タイムラインの構築方法が, 事実確認モデルが証拠文書の関連性, サポート, 反証性を決定する方法に大きく影響していることを示す。
論文 参考訳(メタデータ) (2023-02-24T10:48:03Z) - Missing Counter-Evidence Renders NLP Fact-Checking Unrealistic for
Misinformation [67.69725605939315]
誤報は、信頼できる情報が限られている不確実な時に現れる。
NLPベースのファクトチェックは、まだ利用できないかもしれない反証拠に依存しているため、これは難しい。
論文 参考訳(メタデータ) (2022-10-25T09:40:48Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Automatic Fake News Detection: Are current models "fact-checking" or
"gut-checking"? [0.0]
自動フェイクニュース検出モデルは論理に基づいている。
これらの同じ結果、あるいはそれ以上の結果が、主張を全く考慮せずに達成できることが示されている。
これは、他の信号が検査された証拠に含まれることを意味する。
論文 参考訳(メタデータ) (2022-04-14T21:05:37Z) - Mining Fine-grained Semantics via Graph Neural Networks for
Evidence-based Fake News Detection [20.282527436527765]
本稿では,グラフベースのsEmantic sTructureマイニングフレームワークを提案する。
我々は、クレームとエビデンスをグラフ構造化データとしてモデル化し、長距離セマンティック依存関係をキャプチャします。
文脈意味情報を得た後、グラフ構造学習を行うことにより、情報冗長性を低減する。
論文 参考訳(メタデータ) (2022-01-18T11:28:36Z) - Robust Information Retrieval for False Claims with Distracting Entities
In Fact Extraction and Verification [2.624734563929267]
本論文は, 真理クレームと比較して, 証拠検索モデルに注意をそらすような無関係な実体を, 虚偽クレームの方が頻繁に含んでいることを示す。
BERTベースの検索モデルは、本当の主張の証拠を支持することよりも、虚偽の主張に対する反論の証拠を回収することに間違いを犯した。
論文 参考訳(メタデータ) (2021-12-10T17:11:50Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。