論文の概要: Harnessing Network Effect for Fake News Mitigation: Selecting Debunkers
via Self-Imitation Learning
- arxiv url: http://arxiv.org/abs/2402.03357v1
- Date: Sun, 28 Jan 2024 06:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 15:25:23.569046
- Title: Harnessing Network Effect for Fake News Mitigation: Selecting Debunkers
via Self-Imitation Learning
- Title(参考訳): フェイクニュース緩和のためのハーネスリングネットワーク効果:自己刺激学習によるデバンカーの選択
- Authors: Xiaofei Xu, Ke Deng, Michael Dann, Xiuzhen Zhang
- Abstract要約: 本研究の目的は、偽ニュースがソーシャルネットワークに与える影響を最小限に抑え、真ニュースを広めるためにデバンカーを配置することである。
既存の自己帰納学習手法は、叙述的な報奨から学ぶことの有望性を示しているが、偽ニュース緩和の現実的な応用には不適である。
本研究は, 否定的サンプリングと自己帰納学習の強化について提案する。
- 参考スコア(独自算出の注目度): 13.119771434977086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study aims to minimize the influence of fake news on social networks by
deploying debunkers to propagate true news. This is framed as a reinforcement
learning problem, where, at each stage, one user is selected to propagate true
news. A challenging issue is episodic reward where the "net" effect of
selecting individual debunkers cannot be discerned from the interleaving
information propagation on social networks, and only the collective effect from
mitigation efforts can be observed. Existing Self-Imitation Learning (SIL)
methods have shown promise in learning from episodic rewards, but are
ill-suited to the real-world application of fake news mitigation because of
their poor sample efficiency. To learn a more effective debunker selection
policy for fake news mitigation, this study proposes NAGASIL - Negative
sampling and state Augmented Generative Adversarial Self-Imitation Learning,
which consists of two improvements geared towards fake news mitigation:
learning from negative samples, and an augmented state representation to
capture the "real" environment state by integrating the current observed state
with the previous state-action pairs from the same campaign. Experiments on two
social networks show that NAGASIL yields superior performance to standard GASIL
and state-of-the-art fake news mitigation models.
- Abstract(参考訳): 本研究の目的は,偽ニュースがソーシャルネットワークに与える影響を最小限に抑えることにある。
これは強化学習問題であり、各段階で1人のユーザーが真のニュースを広めるために選択される。
課題は、個別のデバンカーの選択による「ネット」効果がソーシャルネットワーク上の相互に伝達される情報から識別できず、緩和努力による集団効果のみを観察できるエピソディック報酬である。
既存の自己免疫学習法(SIL)は, エピソードな報奨から学習する上で有望であるが, サンプル効率の低さから, 偽ニュース緩和の現実的応用に不適である。
偽ニュース緩和のためのより効果的なデバンカー選択方針を学ぶために,本研究は,偽ニュース緩和を目的とした2つの改善,すなわち,現在観察されている状態を同じキャンペーンから以前の状態と統合することで,"現実"環境状態をキャプチャする拡張状態表現から成る,否定的サンプリングと状態拡張型自己模倣学習を提案する。
2つのソーシャルネットワークでの実験では、標準的なGASILや最先端のフェイクニュース緩和モデルよりも優れたパフォーマンスが得られる。
関連論文リスト
- From a Tiny Slip to a Giant Leap: An LLM-Based Simulation for Fake News Evolution [35.82418316346851]
大規模言語モデル(LLM)に基づくFake News evolution Simulation framEworkを提案する。
本研究では,情報伝達を行うスプレッダー,意見や解釈を提供するコメンテーター,情報や傍観者の正確性をチェックする検証者,参加せずに受動的に観察する傍観者という4種類のエージェントを定義した。
この領域における先行研究の欠如を踏まえ、偽ニュース進化過程における真ニュースからの逸脱を測定するためのFUSE-EVAL評価フレームワークを開発した。
論文 参考訳(メタデータ) (2024-10-24T18:17:16Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - A Multi-Policy Framework for Deep Learning-Based Fake News Detection [0.31498833540989407]
フェイクニュース検出を自動化するフレームワークであるMPSC(Multi-Policy Statement Checker)を導入する。
MPSCは、深層学習技術を用いて、文自体とその関連するニュース記事を分析し、それが信頼できるか疑わしいかを予測する。
論文 参考訳(メタデータ) (2022-06-01T21:25:21Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Adversarial Active Learning based Heterogeneous Graph Neural Network for
Fake News Detection [18.847254074201953]
新規な偽ニュース検出フレームワークであるAdversarial Active Learning-based Heterogeneous Graph Neural Network(AA-HGNN)を提案する。
AA-HGNNは、特にラベル付きデータのあいまいさに直面している場合、学習性能を高めるためにアクティブな学習フレームワークを利用する。
2つの実世界のフェイクニュースデータセットによる実験により、我々のモデルはテキストベースのモデルや他のグラフベースのモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-01-27T05:05:25Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。