論文の概要: User-Centric Evidence Ranking for Attribution and Fact Verification
- arxiv url: http://arxiv.org/abs/2601.21387v1
- Date: Thu, 29 Jan 2026 08:23:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.668609
- Title: User-Centric Evidence Ranking for Attribution and Fact Verification
- Title(参考訳): 属性とファクト検証のためのユーザ中心のエビデンスランキング
- Authors: Guy Alt, Eran Hirsch, Serwar Basch, Ido Dagan, Oren Glickman,
- Abstract要約: エビデンスランク付け(Evidence Ranking)は、ランク付けリストにおいて、できるだけ早く十分な情報を提示することを優先する、新しいタスクである。
これにより、ユーザの読み取り作業を最小限に抑えつつ、利用可能なすべての証拠をシーケンシャルな検証に利用できるようにする。
この研究は、より解釈しやすく、効率的で、ユーザに沿った情報検証システムに向けた基礎的なステップを提供する。
- 参考スコア(独自算出の注目度): 12.059713949823335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribution and fact verification are critical challenges in natural language processing for assessing information reliability. While automated systems and Large Language Models (LLMs) aim to retrieve and select concise evidence to support or refute claims, they often present users with either insufficient or overly redundant information, leading to inefficient and error-prone verification. To address this, we propose Evidence Ranking, a novel task that prioritizes presenting sufficient information as early as possible in a ranked list. This minimizes user reading effort while still making all available evidence accessible for sequential verification. We compare two approaches for the new ranking task: one-shot ranking and incremental ranking. We introduce a new evaluation framework, inspired by information retrieval metrics, and construct a unified benchmark by aggregating existing fact verification datasets. Extensive experiments with diverse models show that incremental ranking strategies better capture complementary evidence and that LLM-based methods outperform shallower baselines, while still facing challenges in balancing sufficiency and redundancy. Compared to evidence selection, we conduct a controlled user study and demonstrate that evidence ranking both reduces reading effort and improves verification. This work provides a foundational step toward more interpretable, efficient, and user-aligned information verification systems.
- Abstract(参考訳): 属性と事実検証は、情報信頼性を評価するための自然言語処理において重要な課題である。
自動システムとLarge Language Models (LLMs) は、クレームを支持したり否定したりするための簡潔な証拠を検索し、選択することを目的としているが、不十分または過度に冗長な情報を持つユーザをしばしば提示し、非効率でエラーを起こしやすい検証に繋がる。
そこで本稿では,情報提供をできるだけ早く優先する新しいタスクであるEvidence Rankingを提案する。
これにより、ユーザの読み取り作業を最小限に抑えつつ、利用可能なすべての証拠をシーケンシャルな検証に利用できるようにする。
新たなランキングタスクのアプローチとして,ワンショットランキングとインクリメンタルランキングの2つを比較した。
情報検索の指標にインスパイアされた新しい評価フレームワークを導入し、既存の事実検証データセットを集約して統一されたベンチマークを構築する。
多様なモデルによる大規模な実験により、インクリメンタルなランキング戦略が補完的な証拠をよりよく捉え、LCMベースの手法がより浅いベースラインを上回りながら、十分性と冗長性のバランスをとるという課題に直面していることが示された。
本研究は,エビデンス選択と比較して,制御されたユーザスタディを実施し,両者のランク付けが読書の労力を減らし,検証を改善することを実証する。
この研究は、より解釈しやすく、効率的で、ユーザに沿った情報検証システムに向けた基礎的なステップを提供する。
関連論文リスト
- FactLens: Benchmarking Fine-Grained Fact Verification [6.814173254027381]
我々は、複雑なクレームを個別の検証のためにより小さなサブステートに分割する、きめ細かい検証へのシフトを提唱する。
我々は,ファクトレンス(FactLens)という,ファクトレンス(FactLens)という,詳細な事実検証のベンチマークを紹介した。
この結果から,FactLens自動評価器と人的判断との整合性を示し,評価性能に対する準定値特性の影響について考察した。
論文 参考訳(メタデータ) (2024-11-08T21:26:57Z) - TrendFact: A Benchmark for Explainable Hotspot Perception in Fact-Checking with Natural Language Explanation [9.221637941193606]
ホットスポット認識能力(HPA)とすべてのファクトチェックタスクを評価することができる最初のベンチマークであるTrendFactを紹介する。
TrendFactは、トレンドプラットフォームとプロのファクトチェックデータセットから得られた7,643のキュレートされたサンプルで構成されている。
また、動的エビデンス強化と影響スコアに基づく反復的自己回帰を統合した推論フレームワークであるFactISRを提案する。
論文 参考訳(メタデータ) (2024-10-19T15:25:19Z) - Multimodal Misinformation Detection using Large Vision-Language Models [7.505532091249881]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
誤情報検出の一部として証拠検索を考えるアプローチはほとんどない。
マルチモーダルエビデンス検索のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T13:57:11Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z) - DeSePtion: Dual Sequence Prediction and Adversarial Examples for
Improved Fact-Checking [46.13738685855884]
ファクトチェックの現在のシステムは、ファクトチェックの現実的な課題の3つのカテゴリに脆弱であることを示す。
文書選択に複数のポインタネットワークを用いて,これらの「攻撃」に対して耐性を持つように設計されたシステムを提案する。
その結果,これらの攻撃に対処する際には,証拠検索の改善が主な原因で,FEVERの最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-04-27T15:18:49Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。