論文の概要: Debunk and Infer: Multimodal Fake News Detection via Diffusion-Generated Evidence and LLM Reasoning
- arxiv url: http://arxiv.org/abs/2506.21557v1
- Date: Wed, 11 Jun 2025 09:08:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.26369
- Title: Debunk and Infer: Multimodal Fake News Detection via Diffusion-Generated Evidence and LLM Reasoning
- Title(参考訳): Debunk and Infer:Diffusion-Generated Evidence and LLM Reasoningによるマルチモーダルフェイクニュース検出
- Authors: Kaiying Yan, Moyang Liu, Yukun Liu, Ruibo Fu, Zhengqi Wen, Jianhua Tao, Xuefei Liu,
- Abstract要約: フェイクニュース検出のためのDebunk-and-Inferフレームワークを提案する。
DIFNDは条件付き拡散モデルの生成強度と多モーダル大言語モデルの協調推論能力を統合する。
FakeSVとFVCデータセットの実験は、DIFNDが既存のアプローチを上回るだけでなく、信頼できる決定を下していることを示している。
- 参考スコア(独自算出の注目度): 34.75988591416631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid spread of fake news across multimedia platforms presents serious challenges to information credibility. In this paper, we propose a Debunk-and-Infer framework for Fake News Detection(DIFND) that leverages debunking knowledge to enhance both the performance and interpretability of fake news detection. DIFND integrates the generative strength of conditional diffusion models with the collaborative reasoning capabilities of multimodal large language models (MLLMs). Specifically, debunk diffusion is employed to generate refuting or authenticating evidence based on the multimodal content of news videos, enriching the evaluation process with diverse yet semantically aligned synthetic samples. To improve inference, we propose a chain-of-debunk strategy where a multi-agent MLLM system produces logic-grounded, multimodal-aware reasoning content and final veracity judgment. By jointly modeling multimodal features, generative debunking cues, and reasoning-rich verification within a unified architecture, DIFND achieves notable improvements in detection accuracy. Extensive experiments on the FakeSV and FVC datasets show that DIFND not only outperforms existing approaches but also delivers trustworthy decisions.
- Abstract(参考訳): マルチメディアプラットフォームにおけるフェイクニュースの急速な普及は、情報信頼性に深刻な課題をもたらしている。
本稿では,フェイクニュース検出(DIFND)のためのデバンク・アンド・インファーフレームワークを提案する。
DIFNDは条件付き拡散モデルの生成強度と多モーダル大言語モデル(MLLM)の協調推論能力を統合する。
具体的には、ニュースビデオのマルチモーダルな内容に基づいて、難読化または認証エビデンスを生成するためにデバンク拡散を用い、多種多様でセマンティックに整合した合成サンプルで評価プロセスを強化する。
推論を改善するため,マルチエージェントMLLMシステムでは,論理的,マルチモーダルな推論内容と最終的な妥当性判定を生成できるチェーン・オブ・デバンク方式を提案する。
マルチモーダルな特徴、生成的デバンキングキュー、統一アーキテクチャ内の推論リッチな検証を共同でモデル化することにより、DIFNDは検出精度を顕著に向上させる。
FakeSVとFVCデータセットの大規模な実験は、DIFNDが既存のアプローチを上回るだけでなく、信頼できる決定を下していることを示している。
関連論文リスト
- Exploring Modality Disruption in Multimodal Fake News Detection [16.607714608483164]
本稿では,モダリティ破壊問題に対処するため,マルチモーダルな偽ニュース検出フレームワークFND-MoEを提案する。
FND-MoEは、それぞれのデータセットで3.45%と3.71%の精度向上により、最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-04-12T09:39:29Z) - External Reliable Information-enhanced Multimodal Contrastive Learning for Fake News Detection [10.575512607941839]
ERIC-FNDは、フェイクニュース検出のための情報強化型マルチモーダルコントラスト学習フレームワークである。
実験は、X(Twitter)とWeiboという、さまざまな言語で一般的に使用されている2つのデータセットで行われます。
論文 参考訳(メタデータ) (2025-03-05T02:07:38Z) - VMID: A Multimodal Fusion LLM Framework for Detecting and Identifying Misinformation of Short Videos [14.551693267228345]
本稿では,マルチモーダル情報に基づく新しいフェイクニュース検出手法を提案する。
提案フレームワークは,ビデオにマルチモーダル機能を組み込むことで,偽ニュース検出の精度と信頼性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-15T08:20:26Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [50.079690200471454]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Fake News Detection and Manipulation Reasoning via Large Vision-Language Models [38.457805116130004]
本稿では,Human-centric and Fact-related Fake News(HFFN)と呼ばれる偽ニュースの検出と操作の推論のためのベンチマークを紹介する。
このベンチマークでは、詳細なマニュアルアノテーションによって、人間の中心性と、高い事実的関連性を強調している。
M-DRUM(Multi-modal News Detection and Reasoning langUage Model)が提示される。
論文 参考訳(メタデータ) (2024-07-02T08:16:43Z) - FKA-Owl: Advancing Multimodal Fake News Detection through Knowledge-Augmented LVLMs [48.32113486904612]
本稿では,FKA-Owlを提案する。FKA-Owlは,偽情報を利用した大規模視覚言語モデル(LVLM)の拡張のためのフレームワークである。
パブリックベンチマークの実験では、FKA-Owlは従来の手法よりも優れたクロスドメイン性能を達成している。
論文 参考訳(メタデータ) (2024-03-04T12:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。