論文の概要: DEFAME: Dynamic Evidence-based FAct-checking with Multimodal Experts
- arxiv url: http://arxiv.org/abs/2412.10510v1
- Date: Fri, 13 Dec 2024 19:11:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:01:31.103705
- Title: DEFAME: Dynamic Evidence-based FAct-checking with Multimodal Experts
- Title(参考訳): DEFAME: 動的エビデンスに基づくマルチモーダルエキスパートによるファクトチェック
- Authors: Tobias Braun, Mark Rothermel, Marcus Rohrbach, Anna Rohrbach,
- Abstract要約: DEFAMEは、オープンドメイン、テキストイメージクレーム検証のためのゼロショットMLLMパイプラインである。
DEFAMEは、ファクトチェックの問題を6段階のプロセスとして表している。
画像によるクレームや、視覚的証拠を必要とするクレームを含む、事実チェックのエンドツーエンドの問題を解決する。
- 参考スコア(独自算出の注目度): 35.952854524873246
- License:
- Abstract: The proliferation of disinformation presents a growing threat to societal trust and democracy, necessitating robust and scalable Fact-Checking systems. In this work, we present Dynamic Evidence-based FAct-checking with Multimodal Experts (DEFAME), a modular, zero-shot MLLM pipeline for open-domain, text-image claim verification. DEFAME frames the problem of fact-checking as a six-stage process, dynamically deciding about the usage of external tools for the retrieval of textual and visual evidence. In addition to the claim's veracity, DEFAME returns a justification accompanied by a comprehensive, multimodal fact-checking report. While most alternatives either focus on sub-tasks of fact-checking, lack explainability or are limited to text-only inputs, DEFAME solves the problem of fact-checking end-to-end, including claims with images or those that require visual evidence. Evaluation on the popular benchmarks VERITE, AVeriTeC, and MOCHEG shows that DEFAME surpasses all previous methods, establishing it as the new state-of-the-art fact-checking system.
- Abstract(参考訳): 偽情報の拡散は、社会的信頼と民主主義への脅威が増大し、堅牢でスケーラブルなFact-Checkingシステムを必要としている。
本研究では,マルチモーダルエキスパートによる動的エビデンスに基づくFAct-checking(DEFAME)を提案する。
DEFAMEは6段階のプロセスとしてファクトチェックの問題を説明し、テキストおよび視覚的証拠の検索に外部ツールの使用を動的に決定する。
クレームの正確性に加えて、DEFAMEは包括的なマルチモーダルな事実チェックレポートを伴う正当化を返す。
ほとんどの代替手段は、ファクトチェックのサブタスク、説明可能性の欠如、テキストのみの入力に限られるが、DEFAMEは、イメージのクレームや視覚的証拠を必要とするものを含む、ファクトチェックのエンドツーエンドの問題を解決する。
人気のあるベンチマークであるVERITE、AVeriTeC、MOCHEGの評価は、DEFAMEがすべての従来の手法を超越し、最先端のファクトチェックシステムとして確立したことを示している。
関連論文リスト
- FIRE: Fact-checking with Iterative Retrieval and Verification [63.67320352038525]
FIREはエビデンス検索とクレーム検証を反復的に統合する新しいフレームワークである。
大きな言語モデル(LLM)のコストを平均7.6倍、検索コストを16.5倍削減しながら、パフォーマンスが若干向上している。
これらの結果から,FIREは大規模ファクトチェック業務における適用を約束していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-17T06:44:18Z) - Multimodal Misinformation Detection using Large Vision-Language Models [7.505532091249881]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
誤情報検出の一部として証拠検索を考えるアプローチはほとんどない。
マルチモーダルエビデンス検索のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T13:57:11Z) - Evidence-based Interpretable Open-domain Fact-checking with Large
Language Models [26.89527395822654]
実世界のシナリオにおけるクレームチェックのためのオープンドメイン説明可能なFact-checking(OE-Fact)システムについて紹介する。
OE-Factシステムは、大規模言語モデル(LLM)の強力な理解と推論能力を利用してクレームを検証できる。
OE-Fact システムは,クローズドドメインとオープンドメインの両方のシナリオにおいて,一般的なファクトチェックベースラインシステムより優れていることを示す。
論文 参考訳(メタデータ) (2023-12-10T09:27:50Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - End-to-End Multimodal Fact-Checking and Explanation Generation: A
Challenging Dataset and Models [0.0]
エンドツーエンドのファクトチェックと説明生成を提案する。
目標は、主張の真理性を評価することであり、関連する証拠を取得し、真理性ラベルを予測することである。
この研究を支援するために15,601クレームからなる大規模データセットであるMochegを構築した。
論文 参考訳(メタデータ) (2022-05-25T04:36:46Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Logically at the Factify 2022: Multimodal Fact Verification [2.8914815569249823]
本稿では,AAAI 2022におけるマルチモーダル事実検証(Factify)課題の参加者システムについて述べる。
アンサンブルモデルとマルチモーダルアテンションネットワークを含む2つのベースラインアプローチを提案し,検討した。
我々の最良モデルは、検証セットとテストセットの両方において、重み付き平均F値が0.77となるリーダーボードで第1位にランクされている。
論文 参考訳(メタデータ) (2021-12-16T23:34:07Z) - Open-Domain, Content-based, Multi-modal Fact-checking of Out-of-Context
Images via Online Resources [70.68526820807402]
実際のイメージは、コンテキストや要素を誤って表現することによって、他の物語をサポートするために再目的化される。
私たちのゴールは、画像とコンテキストのペアリングを事実チェックすることで、この時間を要する、推論集約的なプロセスを自動化する検査可能な方法です。
私たちの研究は、オープンドメイン、コンテンツベース、マルチモーダルなファクトチェックのための最初のステップとベンチマークを提供します。
論文 参考訳(メタデータ) (2021-11-30T19:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。