論文の概要: DiFaR: Enhancing Multimodal Misinformation Detection with Diverse, Factual, and Relevant Rationales
- arxiv url: http://arxiv.org/abs/2508.10444v1
- Date: Thu, 14 Aug 2025 08:32:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.232892
- Title: DiFaR: Enhancing Multimodal Misinformation Detection with Diverse, Factual, and Relevant Rationales
- Title(参考訳): DiFaR:多変量, 実数, 関連有理量による多変量誤情報検出の強化
- Authors: Herun Wan, Jiaying Wu, Minnan Luo, Xiangzheng Kong, Zihan Ma, Zhi Zeng,
- Abstract要約: DiFaRは、誤情報検出を強化するために、多種多様で、事実的で、関連する有理性を生み出す。
4つの人気のあるベンチマークの実験では、DiFaRは4つのベースラインカテゴリを最大5.9%上回っている。
自動測定と人的評価の両方で、DiFaRは3次元全てで合理的な品質を著しく改善することを確認した。
- 参考スコア(独自算出の注目度): 17.889203383750864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating textual rationales from large vision-language models (LVLMs) to support trainable multimodal misinformation detectors has emerged as a promising paradigm. However, its effectiveness is fundamentally limited by three core challenges: (i) insufficient diversity in generated rationales, (ii) factual inaccuracies due to hallucinations, and (iii) irrelevant or conflicting content that introduces noise. We introduce DiFaR, a detector-agnostic framework that produces diverse, factual, and relevant rationales to enhance misinformation detection. DiFaR employs five chain-of-thought prompts to elicit varied reasoning traces from LVLMs and incorporates a lightweight post-hoc filtering module to select rationale sentences based on sentence-level factuality and relevance scores. Extensive experiments on four popular benchmarks demonstrate that DiFaR outperforms four baseline categories by up to 5.9% and boosts existing detectors by as much as 8.7%. Both automatic metrics and human evaluations confirm that DiFaR significantly improves rationale quality across all three dimensions.
- Abstract(参考訳): トレーニング可能なマルチモーダル誤報検出を支援するために,大規模視覚言語モデル(LVLM)からテキスト論理を生成することが,有望なパラダイムとして浮上している。
しかし、その効果は基本的に3つの課題によって制限されている。
一 生成した合理性の多様性が不十分であること。
(二 幻覚による事実不正確なこと、及び
(三 ノイズを生じさせる内容の無関係又は矛盾
誤情報検出を強化するために,多種多様かつ事実的かつ関連性の高い論理を創出する検出非依存のフレームワークであるDiFaRを紹介する。
DiFaRは5つのチェーン・オブ・シークレット・プロンプトを用いてLVLMから様々な推論の痕跡を抽出し、文章レベルの事実性と関連性スコアに基づいて文章を合理的に選択するための軽量なポストホックフィルタリングモジュールを組み込んでいる。
4つの人気のあるベンチマークに関する大規模な実験では、DiFaRは4つの基準線カテゴリを最大5.9%上回り、既存の検出器を最大8.7%上回っている。
自動測定と人的評価の両方で、DiFaRは3次元全てで合理的な品質を著しく改善することを確認した。
関連論文リスト
- Debunk and Infer: Multimodal Fake News Detection via Diffusion-Generated Evidence and LLM Reasoning [34.75988591416631]
フェイクニュース検出のためのDebunk-and-Inferフレームワークを提案する。
DIFNDは条件付き拡散モデルの生成強度と多モーダル大言語モデルの協調推論能力を統合する。
FakeSVとFVCデータセットの実験は、DIFNDが既存のアプローチを上回るだけでなく、信頼できる決定を下していることを示している。
論文 参考訳(メタデータ) (2025-06-11T09:08:43Z) - Truth in the Few: High-Value Data Selection for Efficient Multi-Modal Reasoning [71.3533541927459]
アクティベーション推論ポテンシャル(RAP)と呼ばれる新しいデータ選択パラダイムを提案する。
RAPは、真のマルチモーダル推論を刺激する各サンプルのポテンシャルを推定することで、認知サンプルを識別する。
我々のRAP法は、トレーニングデータの9.3%しか使用せず、計算コストを43%以上削減しながら、常に優れた性能を実現している。
論文 参考訳(メタデータ) (2025-06-05T08:40:24Z) - Deconfounded Reasoning for Multimodal Fake News Detection via Causal Intervention [16.607714608483164]
ソーシャルメディアの急速な成長は、複数のコンテンツ形式にまたがる偽ニュースの普及につながった。
従来の単モーダル検出手法は複雑なクロスモーダル操作に対処するには不十分である。
因果干渉に基づくマルチモーダルデコン検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-12T09:57:43Z) - Out of Style: RAG's Fragility to Linguistic Variation [29.59506089890902]
ユーザクエリは言語的なバリエーションが大きく、依存するRAGコンポーネント間のカスケードエラーを引き起こす可能性がある。
我々は,4つの言語的次元(形式性,可読性,丁寧性,文法的正しさ)がRAG性能に与える影響を分析する。
論文 参考訳(メタデータ) (2025-04-11T03:30:26Z) - FKA-Owl: Advancing Multimodal Fake News Detection through Knowledge-Augmented LVLMs [48.32113486904612]
本稿では,FKA-Owlを提案する。FKA-Owlは,偽情報を利用した大規模視覚言語モデル(LVLM)の拡張のためのフレームワークである。
パブリックベンチマークの実験では、FKA-Owlは従来の手法よりも優れたクロスドメイン性能を達成している。
論文 参考訳(メタデータ) (2024-03-04T12:35:09Z) - Are Machines Better at Complex Reasoning? Unveiling Human-Machine Inference Gaps in Entailment Verification [41.330719056639616]
本研究は,多文前提における係り受け検証問題について考察する。
一貫性のないモデル生成有理数の検出などの現代のNLP問題は、複雑なマルチホップ推論を必要とする。
論文 参考訳(メタデータ) (2024-02-06T04:14:09Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。