論文の概要: FactGuard: Event-Centric and Commonsense-Guided Fake News Detection
- arxiv url: http://arxiv.org/abs/2511.10281v1
- Date: Fri, 14 Nov 2025 01:43:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.792887
- Title: FactGuard: Event-Centric and Commonsense-Guided Fake News Detection
- Title(参考訳): FactGuard: イベント中心およびコモンセンスガイドによるフェイクニュース検出
- Authors: Jing He, Han Zhang, Yuanhui Xiao, Wei Guo, Shaowen Yao, Renyang Liu,
- Abstract要約: 大型言語モデル (LLMs) は偽ニュース検出のための未使用の金鉱である。
我々は,イベント中心のコンテンツ抽出にLLMを活用する,FactGuardと呼ばれる新しいフェイクニュース検出フレームワークを提案する。
私たちのアプローチは、堅牢性と正確性の両方において、既存の手法よりも一貫して優れています。
- 参考スコア(独自算出の注目度): 9.397476786006111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fake news detection methods based on writing style have achieved remarkable progress. However, as adversaries increasingly imitate the style of authentic news, the effectiveness of such approaches is gradually diminishing. Recent research has explored incorporating large language models (LLMs) to enhance fake news detection. Yet, despite their transformative potential, LLMs remain an untapped goldmine for fake news detection, with their real-world adoption hampered by shallow functionality exploration, ambiguous usability, and prohibitive inference costs. In this paper, we propose a novel fake news detection framework, dubbed FactGuard, that leverages LLMs to extract event-centric content, thereby reducing the impact of writing style on detection performance. Furthermore, our approach introduces a dynamic usability mechanism that identifies contradictions and ambiguous cases in factual reasoning, adaptively incorporating LLM advice to improve decision reliability. To ensure efficiency and practical deployment, we employ knowledge distillation to derive FactGuard-D, enabling the framework to operate effectively in cold-start and resource-constrained scenarios. Comprehensive experiments on two benchmark datasets demonstrate that our approach consistently outperforms existing methods in both robustness and accuracy, effectively addressing the challenges of style sensitivity and LLM usability in fake news detection.
- Abstract(参考訳): 書き方に基づくフェイクニュース検出手法は、目覚ましい進歩を遂げた。
しかし、敵が真正なニュースのスタイルを模倣するようになり、そうしたアプローチの有効性は徐々に薄れつつある。
近年,偽ニュース検出のための大規模言語モデル (LLM) の導入について検討している。
しかし、その変革の可能性にもかかわらず、LLMは偽ニュース検出のための未解決の金鉱であり、それらの現実世界の採用は、浅い機能探索、曖昧なユーザビリティ、および禁止的な推論コストによって妨げられている。
本稿では、LLMを利用してイベント中心のコンテンツを抽出し、書き込みスタイルが検出性能に与える影響を低減する、FactGuardと呼ばれる新しいフェイクニュース検出フレームワークを提案する。
さらに本手法では,現実推論における矛盾や曖昧な事例を識別する動的ユーザビリティ機構を導入し,LCMアドバイスを適応的に取り入れて意思決定信頼性を向上させる。
本研究では,FactGuard-Dの導出に知識蒸留を応用し,コールドスタートおよび資源制約のシナリオで効果的に運用できるようにする。
2つのベンチマークデータセットの総合的な実験により、我々のアプローチは、堅牢性と正確性の両方において既存の手法を一貫して上回り、フェイクニュース検出におけるスタイル感度とLLMユーザビリティの課題に効果的に対処することを示した。
関連論文リスト
- Prompt-Induced Linguistic Fingerprints for LLM-Generated Fake News Detection [35.51961877931122]
言語的フィンガープリント抽出法(LIFE)を提案する。
単語レベルの確率分布を再構成することにより、LIFEはLLM生成フェイクニュースの検出を容易にする識別パターンを見つけることができる。
実験の結果, LIFE は LLM 生成フェイクニュースにおける最先端のパフォーマンスを達成し, 人手によるフェイクニュースにおけるハイパフォーマンスを維持していることがわかった。
論文 参考訳(メタデータ) (2025-08-18T05:24:54Z) - Dynamic Analysis and Adaptive Discriminator for Fake News Detection [59.41431561403343]
偽ニュース検出のための動的解析・適応識別器(DAAD)手法を提案する。
知識に基づく手法では,モンテカルロ木探索アルゴリズムを導入し,大規模言語モデルの自己表現能力を活用する。
意味に基づく手法では、偽ニュース生成のメカニズムを明らかにするために、典型的偽造パターンを4つ定義する。
論文 参考訳(メタデータ) (2024-08-20T14:13:54Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [53.41813030290324]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Exploring the Deceptive Power of LLM-Generated Fake News: A Study of Real-World Detection Challenges [21.425647152424585]
条件付き変分オートエンコーダライズプロンプト(VLPrompt)と呼ばれる強力なフェイクニュース攻撃手法を提案する。
現行のメソッドとは異なり、VLPromptはコンテキストコヒーレンスを維持しながら追加のデータ収集を不要にする。
さまざまな検出方法や新しい人間の研究指標を含む実験を行い,その性能をデータセット上で評価した。
論文 参考訳(メタデータ) (2024-03-27T04:39:18Z) - Re-Search for The Truth: Multi-round Retrieval-augmented Large Language Models are Strong Fake News Detectors [38.75533934195315]
大きな言語モデル(LLM)はその顕著な推論と生成能力で知られている。
クレーム検証のための Web ソースからキーエビデンスを自動的に戦略的に抽出する,新たな LLM フレームワークについて紹介する。
我々の枠組みは十分な証拠の取得を保証し、性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T00:35:39Z) - A Systematic Review on the Detection of Fake News Articles [0.0]
偽ニュースや偽情報の拡散は世界中の社会に脅威をもたらすと論じられている。
この脅威に対処するため、自然言語処理(NLP)アプローチが開発されている。
本稿は,最も性能の高い偽ニュース検出手法の定式化,既存手法による制約の特定,緩和手法の提案を目的とする。
論文 参考訳(メタデータ) (2021-10-18T21:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。