論文の概要: Agentic Multi-Persona Framework for Evidence-Aware Fake News Detection
- arxiv url: http://arxiv.org/abs/2512.21039v1
- Date: Wed, 24 Dec 2025 08:06:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.731145
- Title: Agentic Multi-Persona Framework for Evidence-Aware Fake News Detection
- Title(参考訳): Evidence-Aware Fake News Detectionのためのエージェントマルチパーソナフレームワーク
- Authors: Roopa Bukke, Soumya Pandey, Suraj Kumar, Soumi Chattopadhyay, Chandranath Adak,
- Abstract要約: AMPEND-LSは、マルチモーダルフェイクニュース検出のためのエージェント型マルチペルソナエビデンスグラウンドフレームワークである。
LLMを駆動する構造化推論パイプラインを通じて、テキスト、ビジュアル、コンテキストの信号を統合する。
実験の結果、AMPEND-LSは精度、F1スコア、ロバスト性において、一貫して最先端のベースラインを上回った。
この研究は、オンライン情報の完全性を保護するための適応的で説明可能な、エビデンス対応システムの開発を進める。
- 参考スコア(独自算出の注目度): 0.7534418099163723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of online misinformation poses significant risks to public trust, policy, and safety, necessitating reliable automated fake news detection. Existing methods often struggle with multimodal content, domain generalization, and explainability. We propose AMPEND-LS, an agentic multi-persona evidence-grounded framework with LLM-SLM synergy for multimodal fake news detection. AMPEND-LS integrates textual, visual, and contextual signals through a structured reasoning pipeline powered by LLMs, augmented with reverse image search, knowledge graph paths, and persuasion strategy analysis. To improve reliability, we introduce a credibility fusion mechanism combining semantic similarity, domain trustworthiness, and temporal context, and a complementary SLM classifier to mitigate LLM uncertainty and hallucinations. Extensive experiments across three benchmark datasets demonstrate that AMPEND-LS consistently outperformed state-of-the-art baselines in accuracy, F1 score, and robustness. Qualitative case studies further highlight its transparent reasoning and resilience against evolving misinformation. This work advances the development of adaptive, explainable, and evidence-aware systems for safeguarding online information integrity.
- Abstract(参考訳): オンライン誤報の急速な拡散は、信頼、政策、安全に重大なリスクをもたらし、信頼できる自動偽ニュース検出を必要としている。
既存の手法は、しばしばマルチモーダルコンテンツ、ドメインの一般化、説明可能性に苦しむ。
我々は,マルチモーダルフェイクニュース検出のためのLLM-SLM構文を用いたエージェント型マルチペルソナエビデンスグラウンドフレームワークAMPEND-LSを提案する。
AMPEND-LSは、LLMをベースとした構造化推論パイプラインを通じて、テキスト、視覚、コンテキストの信号を統合し、逆画像探索、知識グラフパス、説得戦略分析で拡張する。
信頼性を向上させるために,意味的類似性,ドメインの信頼性,時間的コンテキストを組み合わせた信頼性融合機構と,LCMの不確実性と幻覚を緩和する補完的なSLM分類器を導入する。
3つのベンチマークデータセットにわたる大規模な実験により、AMPEND-LSは、精度、F1スコア、堅牢性において、一貫して最先端のベースラインを上回った。
定性的ケーススタディは、その透明な推論と、進化する誤情報に対するレジリエンスをさらに強調する。
この研究は、オンライン情報の完全性を保護するための適応的で説明可能な、エビデンス対応システムの開発を進める。
関連論文リスト
- ZoFia: Zero-Shot Fake News Detection with Entity-Guided Retrieval and Multi-LLM Interaction [14.012874564599272]
ZoFiaは、2段階のゼロショットフェイクニュース検出フレームワークである。
まず,ニュースコンテンツにおけるエンティティの重要性を定量化するために階層的サリエンスを導入する。
そこで我々はSC-MMRアルゴリズムを提案し,情報的かつ多様なキーワード群を効果的に選択する。
論文 参考訳(メタデータ) (2025-11-03T03:29:42Z) - Enhancing Factual Accuracy and Citation Generation in LLMs via Multi-Stage Self-Verification [41.99844472131922]
本研究は,大規模言語モデル(LLMs)における幻覚の広範的問題と信頼的引用源の欠如に対処する新しい手法であるVeriFact-CoTを紹介する。
VeriFact-CoTは「ファクト検証・リフレクション・サイクリング統合」の多段階的なメカニズムを取り入れることで、LCMに対して批判的に自己検査を行い、中間的推論ステップと最終回答を改訂する権限を与える。
論文 参考訳(メタデータ) (2025-09-06T15:07:59Z) - Understanding and Benchmarking the Trustworthiness in Multimodal LLMs for Video Understanding [59.50808215134678]
この研究では、23の最先端のビデオLLMを評価する最初の総合的なベンチマークであるTrust-videoLLMを紹介した。
その結果、動的シーン理解、クロスモーダルレジリエンス、現実世界のリスク軽減において、大きな制限が示された。
論文 参考訳(メタデータ) (2025-06-14T04:04:54Z) - Debunk and Infer: Multimodal Fake News Detection via Diffusion-Generated Evidence and LLM Reasoning [34.75988591416631]
フェイクニュース検出のためのDebunk-and-Inferフレームワークを提案する。
DIFNDは条件付き拡散モデルの生成強度と多モーダル大言語モデルの協調推論能力を統合する。
FakeSVとFVCデータセットの実験は、DIFNDが既存のアプローチを上回るだけでなく、信頼できる決定を下していることを示している。
論文 参考訳(メタデータ) (2025-06-11T09:08:43Z) - MetaFaith: Faithful Natural Language Uncertainty Expression in LLMs [66.14178164421794]
メタファイト(MetaFaith)は、ヒトのメタ認知に触発された新規なプロンプトベースのキャリブレーション手法である。
MetaFaithは多種多様なモデルやタスク領域における忠実なキャリブレーションを強力に改善し、忠実度を最大61%向上させることができることを示す。
論文 参考訳(メタデータ) (2025-05-30T17:54:08Z) - Challenges and Innovations in LLM-Powered Fake News Detection: A Synthesis of Approaches and Future Directions [0.0]
偽ニュースの拡散は ソーシャルメディアのプラットフォームを通じて 一般大衆の信頼に 重大なリスクをもたらします
最近の研究には、マルチモーダルフレームワークにおける大規模言語モデルによる検出の強化が含まれている。
このレビューでは、ダイナミックなソーシャルメディアトレンド、リアルタイム、クロスプラットフォーム検出機能への適応性の重大なギャップがさらに明らかになった。
論文 参考訳(メタデータ) (2025-02-01T06:56:17Z) - MAD-Sherlock: Multi-Agent Debate for Visual Misinformation Detection [36.12673167913763]
文外誤情報検出のためのマルチエージェント討論システムMAD-Sherlockを紹介する。
MAD-Sherlockは、オンラインで見られる多様で矛盾する会話を反映して、マルチエージェントの議論として検出する。
我々のフレームワークはドメインと時間に依存しず、微調整は必要ありませんが、詳細な説明で最先端の精度を実現しています。
論文 参考訳(メタデータ) (2024-10-26T10:34:22Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - MultiTrust: A Comprehensive Benchmark Towards Trustworthy Multimodal Large Language Models [51.19622266249408]
MultiTrustはMLLMの信頼性に関する最初の総合的で統一されたベンチマークである。
我々のベンチマークでは、マルチモーダルリスクとクロスモーダルインパクトの両方に対処する厳格な評価戦略を採用している。
21の近代MLLMによる大規模な実験は、これまで調査されなかった信頼性の問題とリスクを明らかにしている。
論文 参考訳(メタデータ) (2024-06-11T08:38:13Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。