論文の概要: Drifting Away from Truth: GenAI-Driven News Diversity Challenges LVLM-Based Misinformation Detection
- arxiv url: http://arxiv.org/abs/2508.12711v1
- Date: Mon, 18 Aug 2025 08:19:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.080135
- Title: Drifting Away from Truth: GenAI-Driven News Diversity Challenges LVLM-Based Misinformation Detection
- Title(参考訳): 真実から逸脱する:GenAI駆動型ニュース多様性はLVLMに基づく誤情報検出に挑戦する
- Authors: Fanxiao Li, Jiaying Wu, Tingchao Fu, Yunyun Dong, Bingbing Song, Wei Zhou,
- Abstract要約: マルチモーダルの誤報は 世論や社会的信頼に 脅威をもたらす
ジェネレーティブAI(GenAI)ツールの台頭は、新しい課題をもたらす。
この多様性は多レベルドリフトを引き起こし、現在のLVLMに基づく誤情報検出システムのロバスト性を低下させることを示す。
- 参考スコア(独自算出の注目度): 5.298966297258174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of multimodal misinformation poses growing threats to public discourse and societal trust. While Large Vision-Language Models (LVLMs) have enabled recent progress in multimodal misinformation detection (MMD), the rise of generative AI (GenAI) tools introduces a new challenge: GenAI-driven news diversity, characterized by highly varied and complex content. We show that this diversity induces multi-level drift, comprising (1) model-level misperception drift, where stylistic variations disrupt a model's internal reasoning, and (2) evidence-level drift, where expression diversity degrades the quality or relevance of retrieved external evidence. These drifts significantly degrade the robustness of current LVLM-based MMD systems. To systematically study this problem, we introduce DriftBench, a large-scale benchmark comprising 16,000 news instances across six categories of diversification. We design three evaluation tasks: (1) robustness of truth verification under multi-level drift; (2) susceptibility to adversarial evidence contamination generated by GenAI; and (3) analysis of reasoning consistency across diverse inputs. Experiments with six state-of-the-art LVLM-based detectors show substantial performance drops (average F1 -14.8%) and increasingly unstable reasoning traces, with even more severe failures under adversarial evidence injection. Our findings uncover fundamental vulnerabilities in existing MMD systems and suggest an urgent need for more resilient approaches in the GenAI era.
- Abstract(参考訳): マルチモーダルな誤報の拡散は、公衆の会話や社会的信頼に対する脅威を増大させる。
LVLM(Large Vision-Language Models)は、マルチモーダル誤情報検出(MMD)の最近の進歩を可能にする一方で、生成型AI(GenAI)ツールの台頭により、新しい課題がもたらされた。
この多様性は,(1)モデルレベルの誤認識ドリフト,(2)モデルの内部的推論を阻害するスタイリスティックな変化,(2)表現の多様性が抽出された外部証拠の品質や関連性を低下させるエビデンスレベルのドリフトなど,多段階ドリフトを誘発することを示す。
これらのドリフトは、現在のLVLMベースのMDDシステムのロバスト性を著しく低下させる。
この問題を体系的に研究するために,6つのカテゴリにわたる16,000のニュースインスタンスからなる大規模ベンチマークであるDriftBenchを紹介した。
我々は,(1)多段階ドリフト下での真理検証の堅牢性,(2)GenAIが生成する敵の証拠汚染に対する感受性,(3)多様な入力における推論一貫性の分析という3つの評価課題を設計する。
最先端の6つのLVLMベースの検出器による実験では、性能低下(平均F1-14.8%)と不安定な推理の痕跡が増加し、さらに厳しい結果が得られた。
本研究は,既存のMDDシステムの基本的脆弱性を明らかにし,GenAI時代のよりレジリエントなアプローチの必要性を示唆するものである。
関連論文リスト
- MultiRAG: A Knowledge-guided Framework for Mitigating Hallucination in Multi-source Retrieval Augmented Generation [5.243680711038957]
MultiRAGは、マルチソース検索拡張世代における幻覚を緩和する新しいフレームワークである。
複数ソースのライングラフを使用して、異なる知識ソース間の論理的関係を効率的に集約する。
マルチレベル信頼度計算機構を実装し、信頼できない情報ノードを識別・排除するために、グラフレベルとノードレベルのアセスメントを実行する。
論文 参考訳(メタデータ) (2025-08-05T15:20:52Z) - Ask in Any Modality: A Comprehensive Survey on Multimodal Retrieval-Augmented Generation [2.549112678136113]
Retrieval-Augmented Generation (RAG)は、外部の動的情報を統合することで問題を軽減し、現実のグラウンドを改善する。
クロスモーダルアライメントと推論は、単調なRAG以上の難題をもたらす。
この調査は、より有能で信頼性の高いAIシステムを開発するための基盤となる。
論文 参考訳(メタデータ) (2025-02-12T22:33:41Z) - Mitigating GenAI-powered Evidence Pollution for Out-of-Context Multimodal Misinformation Detection [16.8035295204995]
アウト・オブ・コンテクストのマルチモーダル誤報検出は、GenAIに汚染された証拠を推論して正確な予測を導出する問題に直面している。
既存の作業は、請求レベルでのGenAIによる汚染をシミュレートし、スタイリスティックな書き換えによって言語的手がかりを隠蔽し、そのような情報検索アプリケーションに対する証拠レベルの汚染を無視する。
汚染された証拠から生じる課題に対処するため, クロスモーダル・エビデンスとクロスモーダル・エビデンス・推論の2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-01-24T18:59:31Z) - RADAR: Robust Two-stage Modality-incomplete Industrial Anomaly Detection [61.71770293720491]
本稿では,2段階のロバスト・モードアリティ不完全融合とFlaAmewoRkの検出について提案する。
我々のブートストラッピング哲学は、MIIADの2段階を強化し、マルチモーダルトランスの堅牢性を向上させることである。
実験の結果,提案手法は従来のMIAD法よりも有効性とロバスト性に優れていた。
論文 参考訳(メタデータ) (2024-10-02T16:47:55Z) - Transfer Attack for Bad and Good: Explain and Boost Adversarial Transferability across Multimodal Large Language Models [25.89265341244672]
MLLM(Multimodal Large Language Models)は、相互モダリティ相互作用において例外的な性能を示すが、敵の脆弱性も抱える。
本稿では,MLLM間の対向転写可能性の顕在化を解析し,その特性に影響を及ぼす要因を同定する。
論文 参考訳(メタデータ) (2024-05-30T14:27:20Z) - Multimodal Fusion on Low-quality Data: A Comprehensive Survey [110.22752954128738]
本稿では,野生におけるマルチモーダル核融合の共通課題と最近の進歩について考察する。
低品質データ上でのマルチモーダル融合で直面する4つの主な課題を同定する。
この新たな分類によって、研究者はフィールドの状態を理解し、いくつかの潜在的な方向を特定することができる。
論文 参考訳(メタデータ) (2024-04-27T07:22:28Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。