論文の概要: Generalizing to the Future: Mitigating Entity Bias in Fake News
Detection
- arxiv url: http://arxiv.org/abs/2204.09484v1
- Date: Wed, 20 Apr 2022 14:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:11:15.659251
- Title: Generalizing to the Future: Mitigating Entity Bias in Fake News
Detection
- Title(参考訳): 未来への一般化:フェイクニュース検出におけるエンティティバイアスの緩和
- Authors: Yongchun Zhu, Qiang Sheng, Juan Cao, Shuokai Li, Danding Wang, Fuzhen
Zhuang
- Abstract要約: 本稿では,偽ニュース検出モデルを将来のデータに一般化するエンティティ・デバイアス・フレームワーク(textbfENDEF)を提案する。
エンティティ,ニュースコンテンツ,ニュースの妥当性の因果グラフに基づいて,各原因の寄与を別々にモデル化する。
推論段階では、エンティティの直接効果を取り除き、エンティティバイアスを軽減する。
- 参考スコア(独自算出の注目度): 30.493485490419403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide dissemination of fake news is increasingly threatening both
individuals and society. Fake news detection aims to train a model on the past
news and detect fake news of the future. Though great efforts have been made,
existing fake news detection methods overlooked the unintended entity bias in
the real-world data, which seriously influences models' generalization ability
to future data. For example, 97\% of news pieces in 2010-2017 containing the
entity `Donald Trump' are real in our data, but the percentage falls down to
merely 33\% in 2018. This would lead the model trained on the former set to
hardly generalize to the latter, as it tends to predict news pieces about
`Donald Trump' as real for lower training loss. In this paper, we propose an
entity debiasing framework (\textbf{ENDEF}) which generalizes fake news
detection models to the future data by mitigating entity bias from a
cause-effect perspective. Based on the causal graph among entities, news
contents, and news veracity, we separately model the contribution of each cause
(entities and contents) during training. In the inference stage, we remove the
direct effect of the entities to mitigate entity bias. Extensive offline
experiments on the English and Chinese datasets demonstrate that the proposed
framework can largely improve the performance of base fake news detectors, and
online tests verify its superiority in practice. To the best of our knowledge,
this is the first work to explicitly improve the generalization ability of fake
news detection models to the future data. The code has been released at
https://github.com/ICTMCG/ENDEF-SIGIR2022.
- Abstract(参考訳): フェイクニュースの広汎な普及は、個人と社会の両方を脅かしている。
フェイクニュース検出は、過去のニュースでモデルをトレーニングし、未来のフェイクニュースを検出することを目的としている。
しかし、既存の偽ニュース検出手法は、現実のデータにおける意図しない実体バイアスを見落とし、将来のデータに対するモデルの一般化能力に深刻な影響を与えている。
例えば、2010-2017年の「ドナルド・トランプ」を含むニュース記事の97%はわれわれのデータに写っているが、2018年にはわずか33%にまで落ち込んでいる。
これは「ドナルド・トランプ」に関するニュースを、トレーニング損失を減らすために本物であると予測する傾向にあるため、前者のモデルでは後者にはほとんど一般化しない。
本稿では,エンティティバイアスを因果効果の観点から緩和することにより,偽ニュース検出モデルを将来のデータに一般化するエンティティデバイアスフレームワーク(\textbf{ENDEF})を提案する。
実体,ニュースコンテンツ,ニュースの妥当性の因果グラフに基づいて,トレーニング中の各原因(内容,内容)の寄与を別々にモデル化する。
推論の段階では、エンティティの直接的な効果を取り除き、エンティティバイアスを軽減します。
英語と中国語のデータセットに関する広範囲なオフライン実験は、提案されたフレームワークがベースフェイクニュース検出器のパフォーマンスを大幅に改善できることを示し、オンラインテストは実際にその優位性を検証する。
私たちの知る限りでは、これはフェイクニュース検出モデルの将来のデータへの一般化能力を明示的に改善する最初の作業です。
コードはhttps://github.com/ICTMCG/ENDEF-SIGIR2022でリリースされた。
関連論文リスト
- FakeWatch: A Framework for Detecting Fake News to Ensure Credible Elections [5.15641542196944]
フェイクニュースを検出するために慎重に設計された包括的フレームワークであるFakeWatchを紹介する。
我々のフレームワークは、従来の機械学習(ML)技術と最先端言語モデル(LM)の両方からなるモデルハブを統合している。
本研究の目的は,選挙議題における偽ニュースの特定に有効な,適応的で正確な分類モデルを提供することである。
論文 参考訳(メタデータ) (2024-03-14T20:39:26Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Evaluating Deep Learning Approaches for Covid19 Fake News Detection [0.0]
データマイニングの観点から、偽ニュース検出の自動化技術を検討します。
Contraint@AAAI 2021 Covid-19 Fakeニュース検出データセットで異なる教師付きテキスト分類アルゴリズムを評価します。
Covid-19 Fakeニュース検出データセットで98.41%の最高の精度を報告する。
論文 参考訳(メタデータ) (2021-01-11T16:39:03Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Connecting the Dots Between Fact Verification and Fake News Detection [21.564628184287173]
本稿では,事実検証と偽ニュース検出の点を結合する,シンプルで効果的な手法を提案する。
提案手法は,最近の事実検証モデルの成功を活用し,ゼロショットフェイクニュースの検出を可能にする。
論文 参考訳(メタデータ) (2020-10-11T09:28:52Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z) - Weak Supervision for Fake News Detection via Reinforcement Learning [34.448503443582396]
本稿では,弱教師付きフェイクニュース検出フレームワークWeFENDを提案する。
提案するフレームワークは,アノテータ,強化セレクタ,フェイクニュース検出器の3つの主要コンポーネントで構成されている。
WeChatの公式アカウントと関連するユーザレポートを通じて発行された大量のニュース記事に対して,提案したフレームワークを検証した。
論文 参考訳(メタデータ) (2019-12-28T21:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。