論文の概要: Evolving to the Future: Unseen Event Adaptive Fake News Detection on
Social Media
- arxiv url: http://arxiv.org/abs/2403.00037v1
- Date: Thu, 29 Feb 2024 06:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 19:25:56.866677
- Title: Evolving to the Future: Unseen Event Adaptive Fake News Detection on
Social Media
- Title(参考訳): 未来への進化:ソーシャルメディア上でのイベント適応型フェイクニュース検出
- Authors: Jiajun Zhang, Zhixun Li, Qiang Liu, Shu Wu, Liang Wang
- Abstract要約: 本稿では,Future Adaptive Event-based Fake News Detection (FADE)フレームワークを紹介する。
我々は、適応的な拡張戦略とグラフのコントラスト学習を用いて目標予測器を訓練し、より堅牢な全体予測を行う。
対象予測器の出力からイベントのみ予測器の出力を減じることで、イベントバイアスをさらに軽減する。
- 参考スコア(独自算出の注目度): 29.22073623882667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of social media, the wide dissemination of fake
news on social media is increasingly threatening both individuals and society.
In the dynamic landscape of social media, fake news detection aims to develop a
model trained on news reporting past events. The objective is to predict and
identify fake news about future events, which often relate to subjects entirely
different from those in the past. However, existing fake detection methods
exhibit a lack of robustness and cannot generalize to unseen events. To address
this, we introduce Future ADaptive Event-based Fake news Detection (FADE)
framework. Specifically, we train a target predictor through an adaptive
augmentation strategy and graph contrastive learning to make more robust
overall predictions. Simultaneously, we independently train an event-only
predictor to obtain biased predictions. Then we further mitigate event bias by
obtaining the final prediction by subtracting the output of the event-only
predictor from the output of the target predictor. Encouraging results from
experiments designed to emulate real-world social media conditions validate the
effectiveness of our method in comparison to existing state-of-the-art
approaches.
- Abstract(参考訳): ソーシャルメディアの急速な発展に伴い、ソーシャルメディア上でのフェイクニュースの普及は、個人と社会の両方を脅かしている。
ソーシャルメディアのダイナミックな状況において、偽ニュース検出は過去の出来事を報道するモデルを開発することを目的としている。
目的は、過去のものとは全く異なる主題にしばしば関連する、将来の出来事に関する偽ニュースを予測し、識別することである。
しかし、既存の偽検出手法は堅牢性の欠如を示し、目に見えない事象に一般化できない。
これを解決するために、Future Adaptive Event-based Fake News Detection (FADE)フレームワークを紹介します。
具体的には,適応強化戦略とグラフコントラスト学習によって目標予測器を訓練し,全体としてより堅牢な予測を行う。
同時に、偏りのある予測を得るために、イベントのみの予測を個別に訓練する。
そして、目標予測器の出力からイベントのみ予測器の出力を減算することで、最終予測を得ることにより、イベントバイアスをさらに軽減する。
実世界のソーシャルメディア環境をエミュレートする実験の結果を,既存の最先端手法と比較し,本手法の有効性を検証した。
関連論文リスト
- Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Performative Time-Series Forecasting [71.18553214204978]
我々は,機械学習の観点から,パフォーマンス時系列予測(PeTS)を定式化する。
本稿では,予測分布シフトに対する遅延応答の概念を活用する新しい手法であるFeature Performative-Shifting(FPS)を提案する。
新型コロナウイルスの複数の時系列モデルと交通予報タスクを用いた総合的な実験を行った。
論文 参考訳(メタデータ) (2023-10-09T18:34:29Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - An Interactive Framework for Profiling News Media Sources [31.172580066204635]
本稿では,ニュースメディアのプロファイリングのためのインタラクティブなフレームワークを提案する。
グラフベースのニュースメディアプロファイリングモデル、事前訓練された大規模言語モデル、人間の洞察の強みを組み合わせる。
人間のインタラクションが5つにも満たないので、我々のフレームワークはフェイクや偏見のあるニュースメディアを素早く検出できる。
論文 参考訳(メタデータ) (2023-09-14T02:03:45Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Multimodal Emergent Fake News Detection via Meta Neural Process Networks [36.52739834391597]
本稿では,MetaFENDというフェイクニュース検出フレームワークを提案する。
具体的には、メタラーニングとニューラルプロセスの手法を統合したモデルを提案する。
TwitterとWeiboから収集したマルチメディアデータセットに対して、大規模な実験が行われた。
論文 参考訳(メタデータ) (2021-06-22T21:21:29Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。