論文の概要: PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation
- arxiv url: http://arxiv.org/abs/2506.06842v1
- Date: Sat, 07 Jun 2025 15:46:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.513848
- Title: PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation
- Title(参考訳): PCoT:フェイクニュースとソーシャルメディアの偽情報検出のための思考の説得的連鎖
- Authors: Arkadiusz Modzelewski, Witold Sosnowski, Tiziano Labruna, Adam Wierzbicki, Giovanni Da San Martino,
- Abstract要約: 我々は、ゼロショット分類における偽情報検出を改善するために、PCoT(Persuasion-Augmented Chain of Thought)を導入する。
オンラインニュースやソーシャルメディアの投稿でPCoTを広範囲に評価した。
われわれは、EUDisinfoとMultiDisの2つの新しい最新の偽情報データセットを公開している。
- 参考スコア(独自算出の注目度): 7.402949797440489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Disinformation detection is a key aspect of media literacy. Psychological studies have shown that knowledge of persuasive fallacies helps individuals detect disinformation. Inspired by these findings, we experimented with large language models (LLMs) to test whether infusing persuasion knowledge enhances disinformation detection. As a result, we introduce the Persuasion-Augmented Chain of Thought (PCoT), a novel approach that leverages persuasion to improve disinformation detection in zero-shot classification. We extensively evaluate PCoT on online news and social media posts. Moreover, we publish two novel, up-to-date disinformation datasets: EUDisinfo and MultiDis. These datasets enable the evaluation of PCoT on content entirely unseen by the LLMs used in our experiments, as the content was published after the models' knowledge cutoffs. We show that, on average, PCoT outperforms competitive methods by 15% across five LLMs and five datasets. These findings highlight the value of persuasion in strengthening zero-shot disinformation detection.
- Abstract(参考訳): 偽情報検出はメディアリテラシーの重要な側面である。
心理学的な研究により、説得力のある偽情報に関する知識は、個人が偽情報を検出するのに役立つことが示されている。
これらの知見に触発されて,我々は大規模言語モデル(LLM)を用いて,説得知識の注入が偽情報検出を促進させるかどうかを検証した。
その結果、ゼロショット分類における偽情報検出を改善するために説得を利用した新しいアプローチであるPersuasion-Augmented Chain of Thought (PCoT)を導入した。
オンラインニュースやソーシャルメディアの投稿でPCoTを広範囲に評価した。
さらに、EUDisinfoとMultiDisという2つの新しい最新の偽情報データセットも公開しています。
これらのデータセットにより,本実験で使用したLCMによるコンテンツ上でのPCoTの評価が可能となった。
平均してPCoTは5つのLLMと5つのデータセットの競合手法を15%上回っている。
これらの知見は,ゼロショット偽情報検出の強化における説得の意義を浮き彫りにした。
関連論文リスト
- The Art of Audience Engagement: LLM-Based Thin-Slicing of Scientific Talks [0.0]
簡単な抜粋(薄いスライス)が全体のプレゼンテーション品質を確実に予測できることを示します。
我々は,100以上の実生活科学講演の新たなコーパスを用いて,Large Language Models (LLMs) を用いて,プレゼンテーションの完全な書き起こしを評価する。
以上の結果から,LCMによる評価は人間の評価と密接に一致し,妥当性,信頼性,効率性が証明された。
論文 参考訳(メタデータ) (2025-04-15T00:08:13Z) - PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [50.079690200471454]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Susceptibility to Unreliable Information Sources: Swift Adoption with Minimal Exposure [9.417811179236683]
ユーザは、高クレーディビリティソースよりも露出が少ない低クレーディビリティソースを採用する傾向があります。
情報ソースの採用は、しばしば、同等の信頼性レベルを持つソースへのユーザーの事前の露出を反映している。
論文 参考訳(メタデータ) (2023-11-09T20:16:06Z) - Automated Evidence Collection for Fake News Detection [11.324403127916877]
本稿では,現在行われている偽ニュース検出手法を改良した新しい手法を提案する。
提案手法は,Web記事からエビデンスを抽出し,エビデンスとして扱うための適切なテキストを選択する。
我々の実験は、機械学習とディープラーニングに基づく手法の両方を用いて、我々のアプローチを広範囲に評価するのに役立つ。
論文 参考訳(メタデータ) (2021-12-13T09:38:41Z) - Understanding Health Misinformation Transmission: An Interpretable Deep
Learning Approach to Manage Infodemics [6.08461198240039]
本研究では,新しい解釈可能な深層学習手法であるGenerative Adversarial NetworkベースのPiecewise Wide and Attention Deep Learning (GAN-PiWAD)を提案する。
社会交換理論に則った特徴を選択し、4,445本の誤報動画でGAN-PiWADを評価します。
本研究は,ソーシャルメディアプラットフォームや政策立案者に対して,誤情報を識別し,伝達を制御し,インフォデミクスを管理するための積極的な介入をデザインする直接的意義を与える。
論文 参考訳(メタデータ) (2020-12-21T15:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。