論文の概要: Enhancing Factual Accuracy and Citation Generation in LLMs via Multi-Stage Self-Verification
- arxiv url: http://arxiv.org/abs/2509.05741v1
- Date: Sat, 06 Sep 2025 15:07:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.684764
- Title: Enhancing Factual Accuracy and Citation Generation in LLMs via Multi-Stage Self-Verification
- Title(参考訳): マルチステージ自己検証によるLCMのファクチュアル精度向上とサイテーション生成
- Authors: Fernando Gabriela García, Qiyang Shi, Zilin Feng,
- Abstract要約: 本研究は,大規模言語モデル(LLMs)における幻覚の広範的問題と信頼的引用源の欠如に対処する新しい手法であるVeriFact-CoTを紹介する。
VeriFact-CoTは「ファクト検証・リフレクション・サイクリング統合」の多段階的なメカニズムを取り入れることで、LCMに対して批判的に自己検査を行い、中間的推論ステップと最終回答を改訂する権限を与える。
- 参考スコア(独自算出の注目度): 41.99844472131922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This research introduces VeriFact-CoT (Verified Factual Chain-of-Thought), a novel method designed to address the pervasive issues of hallucination and the absence of credible citation sources in Large Language Models (LLMs) when generating complex, fact-sensitive content. By incorporating a multi-stage mechanism of 'fact verification-reflection-citation integration,' VeriFact-CoT empowers LLMs to critically self-examine and revise their intermediate reasoning steps and final answers. This process significantly enhances the objective accuracy, trustworthiness, and traceability of the generated outputs, making LLMs more reliable for applications demanding high fidelity such as scientific research, news reporting, and legal consultation.
- Abstract(参考訳): 本研究は,多言語モデル(LLM)における幻覚の広汎な問題と,複雑な事実に敏感なコンテンツを生成する際の信頼的な引用源の欠如に対処する新しい手法であるVeriFact-CoT(Verified Factual Chain-of-Thought)を紹介する。
VeriFact-CoTは「ファクト検証・リフレクション・サイクリング統合」の多段階的なメカニズムを取り入れることで、LCMに対して批判的に自己検査を行い、中間的推論ステップと最終回答を改訂する権限を与える。
このプロセスは、生成した出力の客観的な正確性、信頼性、トレーサビリティを著しく向上させ、科学研究、ニュースレポート、法的諮問などの高い忠実性を求めるアプリケーションに対して、LSMをより信頼性の高いものにする。
関連論文リスト
- Improving the Reliability of LLMs: Combining CoT, RAG, Self-Consistency, and Self-Verification [1.5095869543963976]
大規模言語モデル(LLM)は、自信はあるが不正確または無関係な情報を生成する。
幻覚は、複雑でオープンなタスクへの応用において重要な限界である。
本研究では,CoT(Chain-of- Thought)とRAG(Research-augmented Generation)を組み合わせることで幻覚を抑える方法について検討する。
論文 参考訳(メタデータ) (2025-05-13T23:57:02Z) - FACT-AUDIT: An Adaptive Multi-Agent Framework for Dynamic Fact-Checking Evaluation of Large Language Models [79.41859481668618]
大規模言語モデル(LLM)はファクトチェック研究を大幅に進歩させた。
既存のファクトチェック評価手法は静的データセットと分類基準に依存している。
本稿では, LLMのファクトチェック機能を適応的かつ動的に評価するエージェント駆動型フレームワークであるFACT-AUDITを紹介する。
論文 参考訳(メタデータ) (2025-02-25T07:44:22Z) - A Survey on Uncertainty Quantification of Large Language Models: Taxonomy, Open Research Challenges, and Future Directions [9.045698110081686]
大規模言語モデル (LLMs) は、信頼性を高く表現した、妥当で、事実的に正しくない応答を生成する。
従来の研究では、LLMが生み出す幻覚やその他の非現実的な反応は、関連するプロンプトに対するLLMの不確実性を調べることによって検出できることが示されている。
本調査は, LLMの健全な特徴と強度, 弱点を識別し, 既存の不確実性定量化手法を幅広く検討することを目的としている。
論文 参考訳(メタデータ) (2024-12-07T06:56:01Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Evidence-Focused Fact Summarization for Knowledge-Augmented Zero-Shot Question Answering [14.389264346634507]
本稿では,QA(Quesetion Answering)の性能向上を目的とした,エビデンスに着目したFact SummarizationフレームワークであるEFSumを提案する。
実験の結果,EFSumはLDMのゼロショットQA性能を向上することがわかった。
論文 参考訳(メタデータ) (2024-03-05T13:43:58Z) - Can LLMs Produce Faithful Explanations For Fact-checking? Towards
Faithful Explainable Fact-Checking via Multi-Agent Debate [75.10515686215177]
大規模言語モデル(LLM)はテキスト生成に優れるが、事実チェックにおいて忠実な説明を生成する能力は依然として過小評価されている。
多様な役割を持つエージェントとして複数のLSMを利用するマルチエージェント・デベート・リファインメント(MADR)フレームワークを提案する。
MADRは、最終的な説明が厳密な検証を行い、不誠実な要素の可能性を著しく低減し、提示された証拠と密接に一致させることを保証する。
論文 参考訳(メタデータ) (2024-02-12T04:32:33Z) - Know Where to Go: Make LLM a Relevant, Responsible, and Trustworthy
Searcher [10.053004550486214]
大規模言語モデル(LLM)は、Web検索において関連性を改善し、直接的な回答を提供する可能性を示している。
課題は、生成された結果の信頼性と、コントリビューションソースの信頼性にある。
本稿では,LLMの知識を活用してクエリとオンラインソースの直接リンクを促進する新しい生成検索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T03:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。