論文の概要: Towards Robust Fact-Checking: A Multi-Agent System with Advanced Evidence Retrieval
- arxiv url: http://arxiv.org/abs/2506.17878v1
- Date: Sun, 22 Jun 2025 02:39:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.63166
- Title: Towards Robust Fact-Checking: A Multi-Agent System with Advanced Evidence Retrieval
- Title(参考訳): ロバスト Fact-Checking: 高度な証拠検索機能を備えたマルチエージェントシステム
- Authors: Tam Trinh, Manh Nguyen, Truong-Son Hy,
- Abstract要約: デジタル時代における誤報の急速な拡散は、世論に重大な課題をもたらす。
従来の人間主導のファクトチェック手法は信頼できるが、オンラインコンテンツの量と速度に苦慮している。
本稿では, 精度, 効率, 説明性を向上する自動ファクトチェックのための新しいマルチエージェントシステムを提案する。
- 参考スコア(独自算出の注目度): 1.515687944002438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid spread of misinformation in the digital era poses significant challenges to public discourse, necessitating robust and scalable fact-checking solutions. Traditional human-led fact-checking methods, while credible, struggle with the volume and velocity of online content, prompting the integration of automated systems powered by Large Language Models (LLMs). However, existing automated approaches often face limitations, such as handling complex claims, ensuring source credibility, and maintaining transparency. This paper proposes a novel multi-agent system for automated fact-checking that enhances accuracy, efficiency, and explainability. The system comprises four specialized agents: an Input Ingestion Agent for claim decomposition, a Query Generation Agent for formulating targeted subqueries, an Evidence Retrieval Agent for sourcing credible evidence, and a Verdict Prediction Agent for synthesizing veracity judgments with human-interpretable explanations. Evaluated on benchmark datasets (FEVEROUS, HOVER, SciFact), the proposed system achieves a 12.3% improvement in Macro F1-score over baseline methods. The system effectively decomposes complex claims, retrieves reliable evidence from trusted sources, and generates transparent explanations for verification decisions. Our approach contributes to the growing field of automated fact-checking by providing a more accurate, efficient, and transparent verification methodology that aligns with human fact-checking practices while maintaining scalability for real-world applications. Our source code is available at https://github.com/HySonLab/FactAgent
- Abstract(参考訳): デジタル時代における誤報の急速な拡散は、公開言論に重大な課題をもたらし、堅牢でスケーラブルなファクトチェックソリューションを必要としている。
従来の人間主導のファクトチェック手法は信頼できるが、オンラインコンテンツの量と速度に苦慮し、Large Language Models (LLMs) による自動化システムの統合を促した。
しかし、既存の自動化アプローチは、複雑なクレームの処理、ソースの信頼性の確保、透明性の維持といった制限に直面していることが多い。
本稿では, 精度, 効率, 説明性を向上する自動ファクトチェックのための新しいマルチエージェントシステムを提案する。
本システムは、クレーム分解のための入力摂取エージェントと、対象サブクエリを定式化するクエリ生成エージェントと、信頼できる証拠を抽出する証拠検索エージェントと、人間の解釈可能な説明による妥当性判断を合成する検証予測エージェントと、からなる。
ベンチマークデータセット(FEVEROUS, HOVER, SciFact)に基づいて評価し, ベースライン法よりもマクロF1スコアが12.3%向上した。
このシステムは、複雑なクレームを効果的に分解し、信頼できる情報源から信頼できる証拠を回収し、検証決定のための透明な説明を生成する。
我々のアプローチは、現実世界のアプリケーションのスケーラビリティを維持しながら、人間のファクトチェックのプラクティスに合わせて、より正確で効率的で透明な検証手法を提供することによって、自動化されたファクトチェックの分野に寄与します。
ソースコードはhttps://github.com/HySonLab/FactAgentで入手できる。
関連論文リスト
- Divide-Then-Align: Honest Alignment based on the Knowledge Boundary of RAG [51.120170062795566]
本稿では,問合せが知識境界外にある場合の"I don't know"で応答する機能を備えたRAGシステムを実現するためのDTAを提案する。
DTAは適切な棄権と精度のバランスをとり、検索強化システムの信頼性と信頼性を高める。
論文 参考訳(メタデータ) (2025-05-27T08:21:21Z) - Multi-agent Systems for Misinformation Lifecycle : Detection, Correction And Source Identification [0.0]
本稿では,誤情報ライフサイクルを網羅する新しいマルチエージェントフレームワークを提案する。
単一エージェントやモノリシックアーキテクチャとは対照的に,私たちのアプローチでは5つの特殊なエージェントを採用しています。
論文 参考訳(メタデータ) (2025-05-23T06:05:56Z) - A Generative-AI-Driven Claim Retrieval System Capable of Detecting and Retrieving Claims from Social Media Platforms in Multiple Languages [1.3331869040581863]
本研究は, 事実チェック済みのクレームを検索し, 所定のインプットとの関連性を評価し, 事実チェックを支援するための補助情報を提供するアプローチを提案する。
提案手法では,無関係な事実チェックをフィルタリングし,簡潔な要約と説明を生成するために,大規模言語モデル(LLM)を用いる。
以上の結果から,LCMは無関係なファクトチェックの多くをフィルタリングし,労力を削減し,ファクトチェックプロセスを合理化できることが示唆された。
論文 参考訳(メタデータ) (2025-04-29T11:49:05Z) - Assessing the Potential of Generative Agents in Crowdsourced Fact-Checking [7.946359845249688]
大規模言語モデル(LLM)は、ファクトチェックタスク全体で強いパフォーマンスを示している。
本稿では,伝統的にヒトの群集に予約されていた事実確認作業に,生成エージェントが有意義に寄与するかどうかを考察する。
エージェント・群衆は、誠実さの分類において人間の群衆より優れ、内部の一貫性が高く、社会的および認知的バイアスに対する感受性が低下している。
論文 参考訳(メタデータ) (2025-04-24T18:49:55Z) - VerifiAgent: a Unified Verification Agent in Language Model Reasoning [10.227089771963943]
本稿では,メタ検証とツールベース適応検証の2つのレベルを統合した統合検証エージェントを提案する。
VerifiAgentは推論型に基づいて適切な検証ツールを自律的に選択する。
推論スケーリングに効果的に適用でき、より少ないサンプルとコストでより良い結果が得られる。
論文 参考訳(メタデータ) (2025-04-01T04:05:03Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - ExClaim: Explainable Neural Claim Verification Using Rationalization [8.369720566612111]
ExClaimは、基礎的な証拠を含む説明可能なクレーム検証システムを提供しようとしている。
法体系にインスパイアされたExClaimは、合理化を活用して、請求に対する評決を提供する。
統計的および説明可能なAI(XAI)の評価は、有効で信頼性の高い結果を保証するために行われる。
論文 参考訳(メタデータ) (2023-01-21T08:26:27Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。