論文の概要: MIRAGE: Agentic Framework for Multimodal Misinformation Detection with Web-Grounded Reasoning
- arxiv url: http://arxiv.org/abs/2510.17590v1
- Date: Mon, 20 Oct 2025 14:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.484177
- Title: MIRAGE: Agentic Framework for Multimodal Misinformation Detection with Web-Grounded Reasoning
- Title(参考訳): MIRAGE: Web-Grounded Reasoning を用いたマルチモーダル誤情報検出のためのエージェントフレームワーク
- Authors: Mir Nafis Sharear Shopnil, Sharad Duwal, Abhishek Tyagi, Adiba Mahbub Proma,
- Abstract要約: 我々は、マルチモーダル検証を4つのシーケンシャルモジュールに分解する推論時モデルプラガブルエージェントフレームワークであるMIRAGEを提案する。
視覚的妥当性評価は、AI生成した画像を検出し、クロスモーダルな一貫性分析は、Webエビデンスにおけるアウト・オブ・コンテクストの再利用、検索強化された事実チェックの根拠を特定する。
MIRAGEは、ターゲットとするWeb検索、構造化された出力、引用リンクされた有理数を用いた視覚言語モデル推論をオーケストレーションする。
- 参考スコア(独自算出の注目度): 0.6475163438744868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation spreads across web platforms through billions of daily multimodal posts that combine text and images, overwhelming manual fact-checking capacity. Supervised detection models require domain-specific training data and fail to generalize across diverse manipulation tactics. We present MIRAGE, an inference-time, model-pluggable agentic framework that decomposes multimodal verification into four sequential modules: visual veracity assessment detects AI-generated images, cross-modal consistency analysis identifies out-of-context repurposing, retrieval-augmented factual checking grounds claims in web evidence through iterative question generation, and a calibrated judgment module integrates all signals. MIRAGE orchestrates vision-language model reasoning with targeted web retrieval, outputs structured and citation-linked rationales. On MMFakeBench validation set (1,000 samples), MIRAGE with GPT-4o-mini achieves 81.65% F1 and 75.1% accuracy, outperforming the strongest zero-shot baseline (GPT-4V with MMD-Agent at 74.0% F1) by 7.65 points while maintaining 34.3% false positive rate versus 97.3% for a judge-only baseline. Test set results (5,000 samples) confirm generalization with 81.44% F1 and 75.08% accuracy. Ablation studies show visual verification contributes 5.18 F1 points and retrieval-augmented reasoning contributes 2.97 points. Our results demonstrate that decomposed agentic reasoning with web retrieval can match supervised detector performance without domain-specific training, enabling misinformation detection across modalities where labeled data remains scarce.
- Abstract(参考訳): 誤報は、テキストと画像を組み合わせた毎日何十億ものマルチモーダル投稿、圧倒的な手作業による事実チェック能力を通じて、Webプラットフォーム全体に広まっています。
監視された検出モデルは、ドメイン固有のトレーニングデータを必要とし、多様な操作戦術の一般化に失敗する。
MIRAGEは、マルチモーダル検証を4つの逐次モジュールに分解する推論時モデルプラガブルエージェントフレームワークである。視覚的妥当性評価はAI生成画像を検出し、相互整合性解析は、反復質問生成によるWebエビデンスにおけるアウト・オブ・コンテクストの再利用、検索強化された事実チェックグラウンドを識別し、キャリブレーションされた判定モジュールは、すべての信号を統合する。
MIRAGEは、ターゲットとするWeb検索、構造化された出力、引用リンクされた有理数を用いた視覚言語モデル推論をオーケストレーションする。
MMFakeBenchの検証セット(1,000サンプル)では、GPT-4o-miniのMIRAGEは81.65%のF1と75.1%の精度を達成し、判定のみのベースラインに対して34.3%の偽陽性率を維持しながら、最強のゼロショットベースライン(GPT-4VとMDD-Agent)を74.0%のF1で7.65ポイント上回った。
テストセットの結果(5000サンプル)は、一般化を81.44% F1と75.08%の精度で確認した。
アブレーション研究では、視覚的検証は5.18F1点に寄与し、検索増強推論は2.97点に寄与している。
この結果から,Web検索によるエージェント推論の分解は,ドメイン固有の訓練を伴わずに教師付き検出性能と一致し,ラベル付きデータが不足しているモダリティ間の誤情報検出が可能であることが示唆された。
関連論文リスト
- Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Ensemble YOLO Framework for Multi-Domain Mitotic Figure Detection in Histopathology Images [0.7541656202645494]
YOLOv5とYOLOv8の2つの近代的な1段検出器は、MIDOG++、CMC、CCMCTデータセットで訓練された。
YOLOv5は高い精度(84.3%)を達成し、YOLOv8は改善されたリコール(82.6%)を提供した。
我々のアンサンブルは、F1スコア79.2%、精度73.6%、リコール85.8%で5位にランクされ、提案された戦略が未確認のテストデータに対して効果的に一般化されていることを確認した。
論文 参考訳(メタデータ) (2025-09-03T02:43:02Z) - OmniEAR: Benchmarking Agent Reasoning in Embodied Tasks [52.87238755666243]
OmniEARは,言語モデルが身体的相互作用やツールの使用,マルチエージェントの協調にどう影響するかを評価するためのフレームワークである。
我々は、家庭と工業領域にまたがる1500のシナリオにおける連続的な物理的特性と複雑な空間的関係をモデル化する。
我々の体系的な評価は、モデルが制約から推論しなければならない場合、厳しい性能劣化を示す。
論文 参考訳(メタデータ) (2025-08-07T17:54:15Z) - MMMG: a Comprehensive and Reliable Evaluation Suite for Multitask Multimodal Generation [81.26818054877658]
MMMGは、4つのモダリティの組み合わせにまたがるマルチモーダル生成の包括的なベンチマークである。
人間の評価と高度に一致し、平均94.3%の合意を達成している。
GPTイメージは画像生成の精度は78.3%であるが、マルチモーダル推論とインターリーブ生成では不足している。
論文 参考訳(メタデータ) (2025-05-23T08:21:28Z) - Structured Reasoning for Fairness: A Multi-Agent Approach to Bias Detection in Textual Data [0.0]
本稿では,各文を事実あるいは意見として切り離して識別するマルチエージェントフレームワークを提案する。
改良された検出精度と解釈可能な説明を組み合わせることで、現代の言語モデルにおける説明責任を促進する。
論文 参考訳(メタデータ) (2025-03-01T05:27:54Z) - SelfCheckAgent: Zero-Resource Hallucination Detection in Generative Large Language Models [0.16385815610837165]
SelfCheckAgentは、3つの異なるエージェントを統合する新しいフレームワークである。
これらのエージェントは幻覚検出に対する堅牢な多次元アプローチを提供する。
このフレームワークには三角形戦略も組み込まれており、SelfCheckAgentの強みを高めている。
論文 参考訳(メタデータ) (2025-02-03T20:42:32Z) - MatPlotAgent: Method and Evaluation for LLM-Based Agentic Scientific Data Visualization [86.61052121715689]
MatPlotAgentは、科学的データ可視化タスクを自動化するために設計された、モデルに依存しないフレームワークである。
MatPlotBenchは、100人の検証されたテストケースからなる高品質なベンチマークである。
論文 参考訳(メタデータ) (2024-02-18T04:28:28Z) - Weakly Supervised Veracity Classification with LLM-Predicted Credibility Signals [4.895830603263421]
Pastelは、Webコンテンツから信頼性信号を取り出すために、大きな言語モデルを活用する弱い教師付きアプローチである。
信頼性信号と信頼性の関係について検討し,各信号がモデル性能に与える影響について検討した。
論文 参考訳(メタデータ) (2023-09-14T11:06:51Z) - Improving Visual Grounding by Encouraging Consistent Gradient-based
Explanations [58.442103936918805]
注意マスク整合性は,従来の方法よりも優れた視覚的グラウンドリング結果が得られることを示す。
AMCは効率的で実装が容易であり、どんな視覚言語モデルでも採用できるため一般的である。
論文 参考訳(メタデータ) (2022-06-30T17:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。