論文の概要: From Skepticism to Acceptance: Simulating the Attitude Dynamics Toward Fake News
- arxiv url: http://arxiv.org/abs/2403.09498v1
- Date: Thu, 14 Mar 2024 15:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 19:57:52.432416
- Title: From Skepticism to Acceptance: Simulating the Attitude Dynamics Toward Fake News
- Title(参考訳): 懐疑論から受容へ:フェイクニュースへの態度ダイナミクスのシミュレーション
- Authors: Yuhan Liu, Xiuying Chen, Xiaoqing Zhang, Xing Gao, Ji Zhang, Rui Yan,
- Abstract要約: 大規模言語モデル(LLM)に基づくフェイクニュース伝搬シミュレーションフレームワークを提案する。
シミュレーションの結果,話題の関連性や個々の特徴に関連する偽ニュースの伝播パターンが,実世界の観測と一致していることがわかった。
- 参考スコア(独自算出の注目度): 38.990330255607276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the digital era, the rapid propagation of fake news and rumors via social networks brings notable societal challenges and impacts public opinion regulation. Traditional fake news modeling typically forecasts the general popularity trends of different groups or numerically represents opinions shift. However, these methods often oversimplify real-world complexities and overlook the rich semantic information of news text. The advent of large language models (LLMs) provides the possibility of modeling subtle dynamics of opinion. Consequently, in this work, we introduce a Fake news Propagation Simulation framework (FPS) based on LLM, which studies the trends and control of fake news propagation in detail. Specifically, each agent in the simulation represents an individual with a distinct personality. They are equipped with both short-term and long-term memory, as well as a reflective mechanism to mimic human-like thinking. Every day, they engage in random opinion exchanges, reflect on their thinking, and update their opinions. Our simulation results uncover patterns in fake news propagation related to topic relevance, and individual traits, aligning with real-world observations. Additionally, we evaluate various intervention strategies and demonstrate that early and appropriately frequent interventions strike a balance between governance cost and effectiveness, offering valuable insights for practical applications. Our study underscores the significant utility and potential of LLMs in combating fake news.
- Abstract(参考訳): デジタル時代には、偽ニュースや噂がソーシャルネットワークを通じて急速に広まり、社会的課題が顕著になり、世論の規制に影響を及ぼす。
伝統的な偽ニュースモデリングは、通常、異なるグループの一般的な人気傾向を予測したり、意見の変化を数値的に表す。
しかし、これらの手法はしばしば現実の複雑さを単純化し、ニューステキストのリッチな意味情報を見落としている。
大きな言語モデル(LLM)の出現は、微妙な意見力学をモデル化する可能性をもたらす。
そこで本研究では,Fake News Propagation Simulation framework (FPS) について述べる。
具体的には、シミュレーションの各エージェントは、異なる個性を持つ個人を表す。
それらは短期記憶と長期記憶の両方を備えており、人間のような思考を模倣する反射機構を備えている。
毎日、ランダムな意見交換を行い、自分の考えを反映し、意見を更新します。
シミュレーションの結果,話題の関連性や個々の特徴に関連する偽ニュースの伝播パターンが,実世界の観測と一致していることがわかった。
さらに、様々な介入戦略を評価し、早期かつ適切に頻繁な介入がガバナンスコストと効果のバランスを保ち、実用的なアプリケーションに貴重な洞察を提供することを示す。
本研究は,偽ニュース対策におけるLLMの意義と可能性を明らかにするものである。
関連論文リスト
- From a Tiny Slip to a Giant Leap: An LLM-Based Simulation for Fake News Evolution [35.82418316346851]
大規模言語モデル(LLM)に基づくFake News evolution Simulation framEworkを提案する。
本研究では,情報伝達を行うスプレッダー,意見や解釈を提供するコメンテーター,情報や傍観者の正確性をチェックする検証者,参加せずに受動的に観察する傍観者という4種類のエージェントを定義した。
この領域における先行研究の欠如を踏まえ、偽ニュース進化過程における真ニュースからの逸脱を測定するためのFUSE-EVAL評価フレームワークを開発した。
論文 参考訳(メタデータ) (2024-10-24T18:17:16Z) - AI-Press: A Multi-Agent News Generating and Feedback Simulation System Powered by Large Language Models [33.01589900111173]
本稿では,マルチエージェントコラボレーションとRetrieval-Augmented Generationに基づく自動ニュース起草・研磨システムであるAI-Pressを紹介する。
人口分布を考慮した公共フィードバックを生成するフィードバックシミュレーションシステムを開発した。
本システムは,ニュース生成能力の大幅な向上を示し,公開フィードバックシミュレーションの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-10T02:58:52Z) - Fake News Detection and Manipulation Reasoning via Large Vision-Language Models [38.457805116130004]
本稿では,Human-centric and Fact-related Fake News(HFFN)と呼ばれる偽ニュースの検出と操作の推論のためのベンチマークを紹介する。
このベンチマークでは、詳細なマニュアルアノテーションによって、人間の中心性と、高い事実的関連性を強調している。
M-DRUM(Multi-modal News Detection and Reasoning langUage Model)が提示される。
論文 参考訳(メタデータ) (2024-07-02T08:16:43Z) - Belief Revision: The Adaptability of Large Language Models Reasoning [63.0281286287648]
本稿では,LMの信念修正能力をテストするための新しいデータセットであるBelief-Rを紹介する。
このタスクは、人間が事前の推論を抑える方法にインスパイアされ、新しく提案されたデルタ推論フレームワーク内のLMを評価する。
様々なプロンプト戦略にまたがる$sim$30 LMを評価した結果,LMは一般的に,新たな情報に反応して信念を適切に修正するのに苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-06-28T09:09:36Z) - Simulating Opinion Dynamics with Networks of LLM-based Agents [7.697132934635411]
本稿では,Large Language Models (LLMs) の集団に基づく意見力学のシミュレーション手法を提案する。
以上の結果から, LLMエージェントの正確な情報生成に対するバイアスが強く, シミュレーションエージェントが科学的現実に一致していることが明らかとなった。
しかし、素早い工学を通して確認バイアスを誘導した後、既存のエージェント・ベース・モデリングや意見ダイナミクス研究と並んで意見の断片化を観察した。
論文 参考訳(メタデータ) (2023-11-16T07:01:48Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Improving Generalization for Multimodal Fake News Detection [8.595270610973586]
最先端のアプローチは通常、小さなサイズのデータセットや特定のトピックの限定セットでトレーニングされる。
本稿では,マルチモーダルフェイクニュース検出のために,最先端のマルチモーダルトランスを採用した3つのモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T20:32:22Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。