論文の概要: VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification
- arxiv url: http://arxiv.org/abs/2510.11394v1
- Date: Mon, 13 Oct 2025 13:38:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.379447
- Title: VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification
- Title(参考訳): VeriCite: 厳密な検証による検索強化世代における信頼性向上に向けて
- Authors: Haosheng Qian, Yixing Fan, Jiafeng Guo, Ruqing Zhang, Qi Chen, Dawei Yin, Xueqi Cheng,
- Abstract要約: 証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。
我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
- 参考スコア(独自算出の注目度): 107.75781898355562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) has emerged as a crucial approach for enhancing the responses of large language models (LLMs) with external knowledge sources. Despite the impressive performance in complex question-answering tasks, RAG still struggles with hallucinations. Attributing RAG-generated content through in-line citations has demonstrated potential in reducing hallucinations and facilitating human verification. Existing citation generation methods primarily rely on either fine-tuning the generator or employing post-processing approaches for citation matching. However, the former approach demands substantial annotated data and computational resources, while the latter often encounters difficulties in managing multiple citations and frequently produces suboptimal results. In this paper, we introduce a novel framework, called VeriCite, designed to rigorously validate supporting evidence and enhance answer attribution. Specifically, VeriCite breaks down into a three-stage generation: 1) The initial answer generation first generates a response based on all available contexts and has its claims verified through the NLI model; 2) the supporting evidence selection assesses the utility of each document and extracts useful supporting evidences; 3) the final answer refinement integrates the initial response and collected evidences to produce the final, refined answer.We conduct experiments across five open-source LLMs and four datasets, demonstrating that VeriCite can significantly improve citation quality while maintaining the correctness of the answers.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、大規模言語モデル(LLM)の応答を外部の知識ソースに拡張するための重要なアプローチとして登場した。
複雑な質問応答タスクにおける印象的なパフォーマンスにもかかわらず、RAGはいまだ幻覚に苦慮している。
インライン引用によるRAG生成コンテンツへの寄与は幻覚を減少させ、ヒトの検証を促進する可能性を示唆している。
既存の引用生成法は主に、ジェネレータを微調整するか、引用マッチングに後処理アプローチを採用するかに依存する。
しかし、前者のアプローチでは、アノテートされたデータと計算資源がかなり必要であり、後者は複数の引用を管理するのに困難に遭遇し、しばしば準最適結果を生成する。
本稿では,支持証拠の厳格な検証と回答属性の向上を目的とした,VeriCiteという新しいフレームワークを提案する。
具体的には、VeriCiteは3段階に分解される。
1) 初期回答生成は,まず,利用可能なすべてのコンテキストに基づいて応答を生成し,そのクレームをNLIモデルで検証する。
2 支持証拠選定は、各書類の実用性を評価し、有用な支持証拠を抽出する。
3) 最終回答改善は, 初期応答を統合し, 最終回答を生成するための証拠を収集し, 5つのオープンソースLCMと4つのデータセットを対象とした実験を行い, 回答の正しさを維持しながら, VeriCiteが引用品質を著しく改善できることを実証した。
関連論文リスト
- Concise and Sufficient Sub-Sentence Citations for Retrieval-Augmented Generation [28.229130944067787]
RAG質問応答システムでは、大きな言語モデル(LLM)出力の引用を生成することにより、ユーザが潜在的幻覚を識別するのに役立つ。
第一に、引用は通常文や段落レベルで提供される。
第二に、文レベルの引用は、出力を検証するのに不可欠な情報を省略し、ユーザが周囲のコンテキストを読むことを強制する。
本稿では,簡潔かつ十分なサブ文引用を生成することを提案する。これにより,ユーザが生成した出力の正確性を確認するのに要する労力を削減できる。
論文 参考訳(メタデータ) (2025-09-25T07:50:30Z) - Cite Pretrain: Retrieval-Free Knowledge Attribution for Large Language Models [53.17363502535395]
信頼できる言語モデルは、正しい答えと検証可能な答えの両方を提供するべきです。
現在のシステムは、外部レトリバーを推論時にクエリすることで、引用を挿入する。
本稿では,合成QAペアを継続的に事前訓練するActive Indexingを提案する。
論文 参考訳(メタデータ) (2025-06-21T04:48:05Z) - On the Capacity of Citation Generation by Large Language Models [38.47160164251295]
Retrieval-augmented Generation (RAG) は、大規模言語モデル(LLM)における「ハロシン化」問題を緩和するための有望な方法として現れる。
論文 参考訳(メタデータ) (2024-10-15T03:04:26Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Evidence-Driven Retrieval Augmented Response Generation for Online Misinformation [18.18205773056388]
オンライン誤報(RARG)のための検索強化応答生成を提案する。
RARGは科学的情報源から証拠を収集し、証拠に基づいて反情報応答を生成する。
得られた証拠の質を維持しつつ,得られた証拠の有効利用を最大化する報奨関数を提案する。
論文 参考訳(メタデータ) (2024-03-22T05:05:45Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。