論文の概要: Multi-Sourced, Multi-Agent Evidence Retrieval for Fact-Checking
- arxiv url: http://arxiv.org/abs/2603.00267v1
- Date: Fri, 27 Feb 2026 19:29:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.128912
- Title: Multi-Sourced, Multi-Agent Evidence Retrieval for Fact-Checking
- Title(参考訳): Fact-Checkingのためのマルチソース・マルチエージェントエビデンス検索
- Authors: Shuzhi Gong, Richard O. Sinnott, Jianzhong Qi, Cecile Paris, Preslav Nakov, Zhuohan Xie,
- Abstract要約: インターネット上に拡散する誤報は、社会と個人の両方に重大な脅威をもたらす。
これまでの方法は、トレーニングデータから学んだ意味的パターンと社会的コンテキスト的パターンに依存していた。
我々は、証拠のコアリソースとして認証されたオープンナレッジグラフを利用するWKGFCを提案する。
- 参考スコア(独自算出の注目度): 47.47518672198846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation spreading over the Internet poses a significant threat to both societies and individuals, necessitating robust and scalable fact-checking that relies on retrieving accurate and trustworthy evidence. Previous methods rely on semantic and social-contextual patterns learned from training data, which limits their generalization to new data distributions. Recently, Retrieval Augmented Generation (RAG) based methods have been proposed to utilize the reasoning capability of LLMs with retrieved grounding evidence documents. However, these methods largely rely on textual similarity for evidence retrieval and struggle to retrieve evidence that captures multi-hop semantic relations within rich document contents. These limitations lead to overlooking subtle factual correlations between the evidence and the claims to be fact-checked during evidence retrieval, thus causing inaccurate veracity predictions. To address these issues, we propose WKGFC, which exploits authorized open knowledge graph as a core resource of evidence. LLM-enabled retrieval is designed to assess the claims and retrieve the most relevant knowledge subgraphs, forming structured evidence for fact verification. To augment the knowledge graph evidence, we retrieve web contents for completion. The above process is implemented as an automatic Markov Decision Process (MDP): A reasoning LLM agent decides what actions to take according to the current evidence and the claims. To adapt the MDP for fact-checking, we use prompt optimization to fine-tune the agentic LLM.
- Abstract(参考訳): インターネット上での誤報は、社会と個人の両方にとって重大な脅威となり、正確で信頼できる証拠を取得することに依存する、堅牢でスケーラブルな事実チェックを必要とする。
従来の方法は、トレーニングデータから学んだ意味的パターンと社会的コンテキスト的パターンに依存しており、その一般化を新しいデータ分布に制限している。
近年,レトリーバル拡張生成(RAG)に基づく手法が提案されている。
しかし,これらの手法は証拠検索にテキストの類似性に大きく依存しており,リッチな文書内容内のマルチホップ意味関係を捉えた証拠の検索に苦慮している。
これらの制限は、証拠の検索中に事実チェックされる主張と証拠の間の微妙な事実相関を見落とし、不正確な正確性予測を引き起こす。
これらの問題に対処するために、証拠のコアリソースとして認証されたオープンナレッジグラフを利用するWKGFCを提案する。
LLM対応検索は、クレームを評価し、最も関連する知識のサブグラフを取得し、事実検証のための構造化された証拠を形成するように設計されている。
知識グラフのエビデンスを強化するため,Webコンテンツを検索して完成する。
上記のプロセスは自動マルコフ決定プロセス(MDP: Automatic Markov Decision Process)として実装されている。
ファクトチェックにMDPを適用するため,エージェントLLMの微調整に即時最適化を用いる。
関連論文リスト
- CiteAudit: You Cited It, But Did You Read It? A Benchmark for Verifying Scientific References in the LLM Era [51.63024682584688]
大規模言語モデル (LLM) は新たなリスクを導入している。
本稿では,科学文献における幻覚的引用のための総合的なベンチマークおよび検出フレームワークについて紹介する。
我々のフレームワークは、精度と解釈可能性の両方において、先行手法を著しく上回っている。
論文 参考訳(メタデータ) (2026-02-26T19:17:39Z) - Contradiction to Consensus: Dual Perspective, Multi Source Retrieval Based Claim Verification with Source Level Disagreement using LLM [0.17188280334580197]
事実確認と呼ばれるクレーム検証は、潜在的な誤情報を特定するのに役立つ。
ほとんどの自動クレーム検証システムは単一の知識源に依存している。
オープンドメインのクレーム検証のための新しいシステムを提案する。
論文 参考訳(メタデータ) (2026-02-21T02:21:31Z) - Veri-R1: Toward Precise and Faithful Claim Verification via Online Reinforcement Learning [53.05161493434908]
大規模言語モデル(LLM)によるクレーム検証は、その強力な推論能力と透過的な検証プロセスのため、近年注目を集めている。
我々は、LLMが検索エンジンと対話し、その計画、検索、推論行動を明確に形作る報酬信号を受け取ることができるオンライン強化学習フレームワークであるVeri-R1を紹介した。
実験の結果、Veri-R1は最大30%の精度で関節の精度を向上し、エビデンススコアを2倍にし、より大きなモデルを上回ることが示されている。
論文 参考訳(メタデータ) (2025-10-02T11:49:48Z) - GE-Chat: A Graph Enhanced RAG Framework for Evidential Response Generation of LLMs [6.3596531375179515]
本稿では,エビデンスに基づく応答生成を実現するための検索強化フレームワークであるGE-Chatを提案する。
具体的には、ユーザが資料をアップロードすると、知識グラフが作成され、検索強化エージェントの構築に役立ちます。
我々は、正確な証拠検索を実現するために、Chain-of-Thought(CoT)ロジック生成、n-hopサブグラフ検索、entailment-based sentence生成を活用する。
論文 参考訳(メタデータ) (2025-05-15T10:17:35Z) - Hypothetical Documents or Knowledge Leakage? Rethinking LLM-based Query Expansion [6.792233590302494]
本稿では,事実検証ベンチマークにおける知識リークが,観察された性能向上に寄与するかどうかを考察する。
以上の結果から, 生成文書に金の証拠が関与した文を含むクレームに対して, 平均的な性能改善が一貫して発生したことが示唆された。
論文 参考訳(メタデータ) (2025-04-19T04:32:38Z) - Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Multimodal Misinformation Detection using Large Vision-Language Models [7.505532091249881]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
誤情報検出の一部として証拠検索を考えるアプローチはほとんどない。
マルチモーダルエビデンス検索のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T13:57:11Z) - Retrieval Augmented Fact Verification by Synthesizing Contrastive Arguments [23.639378586798884]
コントラスト引数の合成による検索拡張現実事実検証を提案する。
提案手法は,関連文書を証拠として効果的に検索し,様々な視点から議論を評価する。
RAFTS は GPT 法よりはるかに小さい 7B LLM で優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-06-14T08:13:34Z) - From Relevance to Utility: Evidence Retrieval with Feedback for Fact Verification [118.03466985807331]
我々は、FVの関連性よりも、クレーム検証者が取得した証拠から導出する実用性に焦点を当てる必要があると論じる。
本稿では,エビデンス検索プロセスの最適化に,クレーム検証器からのフィードバックを取り入れたフィードバックベースのエビデンス検索手法(FER)を提案する。
論文 参考訳(メタデータ) (2023-10-18T02:59:38Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。