論文の概要: D-SECURE: Dual-Source Evidence Combination for Unified Reasoning in Misinformation Detection
- arxiv url: http://arxiv.org/abs/2602.14441v1
- Date: Mon, 16 Feb 2026 03:51:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.129943
- Title: D-SECURE: Dual-Source Evidence Combination for Unified Reasoning in Misinformation Detection
- Title(参考訳): D-SECURE:誤情報検出における統一推論のためのデュアルソースエビデンス組合せ
- Authors: Gagandeep Singh, Samudi Amarasinghe, Priyanka Singh,
- Abstract要約: マルチモーダルな誤報は、現実的な即興編集と、流動的だが誤解を招くテキストを混在させ、検証が難しい説得的な投稿を生み出している。
D-SECUREは、内部操作検出と外部エビデンスに基づくニューススタイル投稿の推論を組み合わせたフレームワークである。
- 参考スコア(独自算出の注目度): 9.049034101566642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal misinformation increasingly mixes realistic im-age edits with fluent but misleading text, producing persuasive posts that are difficult to verify. Existing systems usually rely on a single evidence source. Content-based detectors identify local inconsistencies within an image and its caption but cannot determine global factual truth. Retrieval-based fact-checkers reason over external evidence but treat inputs as coarse claims and often miss subtle visual or textual manipulations. This separation creates failure cases where internally consistent fabrications bypass manipulation detectors and fact-checkers verify claims that contain pixel-level or token-level corruption. We present D-SECURE, a framework that combines internal manipulation detection with external evidence-based reasoning for news-style posts. D-SECURE integrates the HAMMER manipulation detector with the DEFAME retrieval pipeline. DEFAME performs broad verification, and HAMMER analyses residual or uncertain cases that may contain fine-grained edits. Experiments on DGM4 and ClaimReview samples highlight the complementary strengths of both systems and motivate their fusion. We provide a unified, explainable report that incorporates manipulation cues and external evidence.
- Abstract(参考訳): マルチモーダルな誤報は、現実的な即興編集と、流動的だが誤解を招くテキストを混在させ、検証が難しい説得的な投稿を生み出している。
既存のシステムは通常、単一のエビデンスソースに依存している。
コンテンツに基づく検出器は、画像とそのキャプション内の局所的な矛盾を識別するが、世界的事実を判断することはできない。
検索ベースのファクトチェッカーは、外部の証拠を判断するが、入力を粗悪なクレームとして扱い、しばしば微妙な視覚的またはテキスト的操作を見逃す。
この分離により、内部的に一貫したファクトチェッカーやファクトチェッカーが、ピクセルレベルやトークンレベルの破損を含むクレームを検証できるような障害ケースが生成される。
D-SECUREは、内部操作検出と外部エビデンスに基づくニューススタイル投稿の推論を組み合わせたフレームワークである。
D-SECUREは、HAMMER操作検出器とDEFAME検索パイプラインを統合する。
DEFAMEは広範囲な検証を行い、HAMMERは微細な編集を含む可能性のある残留または不確実なケースを分析する。
DGM4 と ClaimReview の実験では、両方のシステムの相補的な強度を強調し、融合を動機付けている。
我々は、操作手順と外部証拠を組み込んだ統一的で説明可能なレポートを提供する。
関連論文リスト
- What's Left Unsaid? Detecting and Correcting Misleading Omissions in Multimodal News Previews [31.373823254968315]
事実が正しいとしても、ソーシャルメディアのニュースプレビューは解釈のドリフトを引き起こす。
この秘密の害は明示的な誤報よりも検出が難しいが、未発見のままである。
我々は、プレビューベースとコンテキストベースの理解を分離し、シミュレートするマルチステージパイプラインを開発した。
論文 参考訳(メタデータ) (2026-01-09T06:29:19Z) - HiEAG: Evidence-Augmented Generation for Out-of-Context Misinformation Detection [8.609016163081744]
外部整合性チェックを改良する新しい階層的エビデンス拡張生成フレームワークであるHiEAGを提案する。
提案手法では,外部整合性チェックを総合的なエンジンパイプラインに分解する。
提案手法は, 判断の説明を可能にし, 命令調律による印象的な性能を実現する。
論文 参考訳(メタデータ) (2025-11-18T01:11:48Z) - Beyond Artificial Misalignment: Detecting and Grounding Semantic-Coordinated Multimodal Manipulations [56.816929931908824]
マルチモーダルデータにおける意味的協調操作の検出の先駆者となった。
本稿では,RamDG(Retrieval-Augmented Manipulation Detection and Grounding)フレームワークを提案する。
我々のフレームワークは既存の手法よりも優れており、SAMMの精度は最先端の手法に比べて2.06%高い。
論文 参考訳(メタデータ) (2025-09-16T04:18:48Z) - CRAVE: A Conflicting Reasoning Approach for Explainable Claim Verification Using LLMs [15.170312674645535]
CRAVE は、説明可能なクレーム VErification に対する Conflicting Reasoning Approach である。
大規模な言語モデルによって推論される矛盾する理性に基づいて、複雑なクレームを検証することができる。
CRAVEは最先端の手法よりもはるかに優れた性能を実現している。
論文 参考訳(メタデータ) (2025-04-21T07:20:31Z) - Evidence Tampering and Chain of Custody in Layered Attestations [0.0]
分散システムにおいて、信頼決定は、遠隔検定によって生成される完全性証明に基づいて行われる。
提案手法は, 証拠が検出されることなく, 証拠を改ざんできる「戦略」を改ざんするだけでなく, 証拠を改ざんするための全ての改ざん機会を識別するアルゴリズムを提案する。
当社の取り組みは,プロトコル設計者が可能な限り最小かつ信頼性の高いコンポーネントの集合に機会を阻害する証拠を減らすことを支援することを目的としています。
論文 参考訳(メタデータ) (2024-01-31T21:54:53Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z) - Unleashing Potential of Evidence in Knowledge-Intensive Dialogue
Generation [37.29386687125705]
知識集約対話生成(u-EIDG)におけるエビデンスを効果的に統合する枠組みを提案する。
具体的には,Large Language Models (LLM) のパワーを活用し,ラベルのないデータから信頼性のあるエビデンスラベルを抽出する自動エビデンス生成フレームワークを提案する。
これらのエビデンスラベルを利用することで、検索されたパスから関連するエビデンスを効果的に識別する信頼性のあるエビデンス指標をトレーニングする。
論文 参考訳(メタデータ) (2023-09-15T13:13:30Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。