論文の概要: LLM-Generated Fake News Induces Truth Decay in News Ecosystem: A Case Study on Neural News Recommendation
- arxiv url: http://arxiv.org/abs/2504.20013v1
- Date: Mon, 28 Apr 2025 17:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.539067
- Title: LLM-Generated Fake News Induces Truth Decay in News Ecosystem: A Case Study on Neural News Recommendation
- Title(参考訳): LLM生成フェイクニュースはニュース生態系の真偽を誘導する:ニューラルニュース勧告を事例として
- Authors: Beizhe Hu, Qiang Sheng, Juan Cao, Yang Li, Danding Wang,
- Abstract要約: 本研究では,ニューラルニュースレコメンデーションシステムにおいて,大規模言語モデル(LLM)が生成した偽ニュースの効果について検討した。
以上の結果から, 偽ニュースに対するニュースランキングにおいて, 実ニュースが次第に有利な立場を失っている事実が明らかになった。
本稿では,真理崩壊の原因を親しみやすさの観点から説明し,パープレキシティとニュースランキングとの正の相関を示す。
- 参考スコア(独自算出の注目度): 18.075837828917702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online fake news moderation now faces a new challenge brought by the malicious use of large language models (LLMs) in fake news production. Though existing works have shown LLM-generated fake news is hard to detect from an individual aspect, it remains underexplored how its large-scale release will impact the news ecosystem. In this study, we develop a simulation pipeline and a dataset with ~56k generated news of diverse types to investigate the effects of LLM-generated fake news within neural news recommendation systems. Our findings expose a truth decay phenomenon, where real news is gradually losing its advantageous position in news ranking against fake news as LLM-generated news is involved in news recommendation. We further provide an explanation about why truth decay occurs from a familiarity perspective and show the positive correlation between perplexity and news ranking. Finally, we discuss the threats of LLM-generated fake news and provide possible countermeasures. We urge stakeholders to address this emerging challenge to preserve the integrity of news ecosystems.
- Abstract(参考訳): オンラインフェイクニュースのモデレーションは、偽ニュース制作で大規模言語モデル(LLM)が悪用されたことにより、新たな課題に直面している。
LLMが生成したフェイクニュースは個々の側面から検出するのは難しいが、大規模なリリースがニュースエコシステムにどのように影響するかは未解明のままである。
本研究では,ニューラルニュースレコメンデーションシステムにおけるLLM生成フェイクニュースの効果を調べるために,56k程度の様々なタイプのニュースを生成するシミュレーションパイプラインとデータセットを開発した。
LLMニュースがニュースレコメンデーションに関わっているため、偽ニュースに対するニュースランキングにおける真のニュースの優位性は徐々に低下している。
さらに、親しみやすさの観点から真理崩壊が起こる理由を説明し、難易度とニュースランキングの正の相関を示す。
最後に,LLM生成フェイクニュースの脅威について論じ,その対策について述べる。
我々は、ニュースエコシステムの完全性を維持するために、この新たな課題に取り組むよう、ステークホルダーに促している。
関連論文リスト
- Have LLMs Reopened the Pandora's Box of AI-Generated Fake News? [30.759761034237563]
大規模言語モデル(LLM)は、大規模な偽ニュースを生成する。
本稿では,人間によるフェイクニュース作成や,人間のアノテータやAIモデルによる検出能力の評価にLLMを用いることについて検討する。
論文 参考訳(メタデータ) (2024-10-25T01:58:29Z) - From a Tiny Slip to a Giant Leap: An LLM-Based Simulation for Fake News Evolution [35.82418316346851]
大規模言語モデル(LLM)に基づくFake News evolution Simulation framEworkを提案する。
本研究では,情報伝達を行うスプレッダー,意見や解釈を提供するコメンテーター,情報や傍観者の正確性をチェックする検証者,参加せずに受動的に観察する傍観者という4種類のエージェントを定義した。
この領域における先行研究の欠如を踏まえ、偽ニュース進化過程における真ニュースからの逸脱を測定するためのFUSE-EVAL評価フレームワークを開発した。
論文 参考訳(メタデータ) (2024-10-24T18:17:16Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [50.079690200471454]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - A Revisit of Fake News Dataset with Augmented Fact-checking by ChatGPT [8.363702038073814]
既存の偽ニュース検出データセットは、人間のジャーナリストから提供されています。
本稿では,人間のジャーナリストが検証した既存の偽ニュースデータセットを再検討し,大規模言語モデルによるファクトチェックの強化を行った。
論文 参考訳(メタデータ) (2023-12-19T05:46:11Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Fake News Detectors are Biased against Texts Generated by Large Language
Models [39.36284616311687]
フェイクニュースの拡散は、信頼を弱め、社会への脅威を訴える重要な課題として浮上している。
本稿では,人間の書き起こしとLLM生成の両方の誤情報を含むシナリオにおいて,偽ニュース検知器を評価するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-15T18:04:40Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - Zoom Out and Observe: News Environment Perception for Fake News
Detection [18.369195554810236]
既存のメソッドは、ニュース投稿の言語パターンを観察し、その内容を検証するために"ズームイン"する。
本稿では,ニュース投稿の環境信号を取得するためのNEP(News Environment Perception Framework)を提案する。
新たに構築したデータセットの実験により、NEPは基本的な偽ニュース検知器の性能を効率的に改善できることが示された。
論文 参考訳(メタデータ) (2022-03-21T11:10:46Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - How does Truth Evolve into Fake News? An Empirical Study of Fake News
Evolution [55.27685924751459]
偽ニュース進化過程を追跡する新しいデータセットであるフェイクニュース進化データセットを提示する。
私たちのデータセットは950のペアデータで構成され、それぞれが真実、偽ニュース、進化した偽ニュースを表す記事で構成されています。
進化中の特徴を観察し,誤情報技術,テキスト類似性,キーワードトップ10,分類精度,発話部分,感情特性について検討した。
論文 参考訳(メタデータ) (2021-03-10T09:01:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。