論文の概要: Evolving to the Future: Unseen Event Adaptive Fake News Detection on
Social Media
- arxiv url: http://arxiv.org/abs/2403.00037v1
- Date: Thu, 29 Feb 2024 06:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 19:25:56.866677
- Title: Evolving to the Future: Unseen Event Adaptive Fake News Detection on
Social Media
- Title(参考訳): 未来への進化:ソーシャルメディア上でのイベント適応型フェイクニュース検出
- Authors: Jiajun Zhang, Zhixun Li, Qiang Liu, Shu Wu, Liang Wang
- Abstract要約: 本稿では,Future Adaptive Event-based Fake News Detection (FADE)フレームワークを紹介する。
我々は、適応的な拡張戦略とグラフのコントラスト学習を用いて目標予測器を訓練し、より堅牢な全体予測を行う。
対象予測器の出力からイベントのみ予測器の出力を減じることで、イベントバイアスをさらに軽減する。
- 参考スコア(独自算出の注目度): 29.22073623882667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of social media, the wide dissemination of fake
news on social media is increasingly threatening both individuals and society.
In the dynamic landscape of social media, fake news detection aims to develop a
model trained on news reporting past events. The objective is to predict and
identify fake news about future events, which often relate to subjects entirely
different from those in the past. However, existing fake detection methods
exhibit a lack of robustness and cannot generalize to unseen events. To address
this, we introduce Future ADaptive Event-based Fake news Detection (FADE)
framework. Specifically, we train a target predictor through an adaptive
augmentation strategy and graph contrastive learning to make more robust
overall predictions. Simultaneously, we independently train an event-only
predictor to obtain biased predictions. Then we further mitigate event bias by
obtaining the final prediction by subtracting the output of the event-only
predictor from the output of the target predictor. Encouraging results from
experiments designed to emulate real-world social media conditions validate the
effectiveness of our method in comparison to existing state-of-the-art
approaches.
- Abstract(参考訳): ソーシャルメディアの急速な発展に伴い、ソーシャルメディア上でのフェイクニュースの普及は、個人と社会の両方を脅かしている。
ソーシャルメディアのダイナミックな状況において、偽ニュース検出は過去の出来事を報道するモデルを開発することを目的としている。
目的は、過去のものとは全く異なる主題にしばしば関連する、将来の出来事に関する偽ニュースを予測し、識別することである。
しかし、既存の偽検出手法は堅牢性の欠如を示し、目に見えない事象に一般化できない。
これを解決するために、Future Adaptive Event-based Fake News Detection (FADE)フレームワークを紹介します。
具体的には,適応強化戦略とグラフコントラスト学習によって目標予測器を訓練し,全体としてより堅牢な予測を行う。
同時に、偏りのある予測を得るために、イベントのみの予測を個別に訓練する。
そして、目標予測器の出力からイベントのみ予測器の出力を減算することで、最終予測を得ることにより、イベントバイアスをさらに軽減する。
実世界のソーシャルメディア環境をエミュレートする実験の結果を,既存の最先端手法と比較し,本手法の有効性を検証した。
関連論文リスト
- Enhancing Fake News Detection in Social Media via Label Propagation on Cross-modal Tweet Graph [19.409935976725446]
ソーシャルメディアにおける偽ニュースを検出する新しい方法を提案する。
我々の手法は、より密な相互作用をよりよく捉えるために、グラフの接続性を高める。
評価には、Twitter、PHEME、Weiboの3つの公開フェイクニュースデータセットを使用します。
論文 参考訳(メタデータ) (2024-06-14T09:55:54Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Multimodal Emergent Fake News Detection via Meta Neural Process Networks [36.52739834391597]
本稿では,MetaFENDというフェイクニュース検出フレームワークを提案する。
具体的には、メタラーニングとニューラルプロセスの手法を統合したモデルを提案する。
TwitterとWeiboから収集したマルチメディアデータセットに対して、大規模な実験が行われた。
論文 参考訳(メタデータ) (2021-06-22T21:21:29Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Connecting the Dots Between Fact Verification and Fake News Detection [21.564628184287173]
本稿では,事実検証と偽ニュース検出の点を結合する,シンプルで効果的な手法を提案する。
提案手法は,最近の事実検証モデルの成功を活用し,ゼロショットフェイクニュースの検出を可能にする。
論文 参考訳(メタデータ) (2020-10-11T09:28:52Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。