論文の概要: Attribution Techniques for Mitigating Hallucinated Information in RAG Systems: A Survey
- arxiv url: http://arxiv.org/abs/2601.19927v1
- Date: Sat, 10 Jan 2026 04:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.547679
- Title: Attribution Techniques for Mitigating Hallucinated Information in RAG Systems: A Survey
- Title(参考訳): RAGシステムにおけるハロゲン化情報の緩和のための属性技術:調査
- Authors: Yuqing Zhao, Ziyao Liu, Yongsen Zheng, Kwok-Yan Lam,
- Abstract要約: 大規模言語モデル(LLM)に基づく質問応答システムは、現代のAIにおいて重要な役割を果たす。
LLMの生成する応答は、しばしば幻覚に悩まされ、信頼できない参照が欠如している。
本研究は,RAGシステム内での帰属的手法を用いて幻覚を緩和する方法について検討した。
- 参考スコア(独自算出の注目度): 32.31859104084246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs)-based question answering (QA) systems play a critical role in modern AI, demonstrating strong performance across various tasks. However, LLM-generated responses often suffer from hallucinations, unfaithful statements lacking reliable references. Retrieval-Augmented Generation (RAG) frameworks enhance LLM responses by incorporating external references but also introduce new forms of hallucination due to complex interactions between the retriever and generator. To address these challenges, researchers have explored attribution-based techniques that ensure responses are verifiably supported by retrieved content. Despite progress, a unified pipeline for these techniques, along with a clear taxonomy and systematic comparison of their strengths and weaknesses, remains lacking. A well-defined taxonomy is essential for identifying specific failure modes within RAG systems, while comparative analysis helps practitioners choose appropriate solutions based on hallucination types and application context. This survey investigates how attribution-based techniques are used within RAG systems to mitigate hallucinations and addresses the gap by: (i) outlining a taxonomy of hallucination types in RAG systems, (ii) presenting a unified pipeline for attribution techniques, (iii) reviewing techniques based on the hallucinations they target, and (iv) discussing strengths and weaknesses with practical guidelines. This work offers insights for future research and practical use of attribution techniques in RAG systems.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づく質問応答(QA)システムは、現代のAIにおいて重要な役割を果たす。
しかし、LSM生成応答は幻覚に悩まされることが多く、信頼できない参照が欠如している。
Retrieval-Augmented Generation (RAG) フレームワークは、外部参照を組み込むことでLCM応答を高めるだけでなく、レトリバーとジェネレータの間の複雑な相互作用による新たな幻覚も導入する。
これらの課題に対処するため、研究者は、検索されたコンテンツによって応答が確実に支持されるようにする属性ベースの手法を探索した。
進歩にもかかわらず、これらの技術のための統一されたパイプラインは、明確な分類学と、その強さと弱点の体系的な比較と共に、依然として不足している。
RAGシステム内の特定の障害モードを特定するためには、明確に定義された分類法が不可欠である一方、比較分析は、幻覚型とアプリケーションコンテキストに基づいて、実践者が適切なソリューションを選択するのに役立つ。
本調査は、RAGシステム内での帰属的手法を用いて幻覚を緩和し、ギャップに対処する方法について検討する。
(i)RAGシステムにおける幻覚型分類の概要
二 帰属技術のための統一パイプラインを提示すること。
三 対象とする幻覚に基づいて検査する技術
(4)実践的ガイドラインによる強みと弱みの議論。
本研究は,RAGシステムにおける属性手法の今後の研究と実用化に関する知見を提供する。
関連論文リスト
- ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - Mitigating Hallucination in Large Language Models (LLMs): An Application-Oriented Survey on RAG, Reasoning, and Agentic Systems [3.7722124918244506]
幻覚は、大きな言語モデルの信頼できるデプロイにおける重要な障害の1つです。
Retrieval-Augmented Generation (RAG) と推論の強化は、最も効果的で広く採用されているアプローチの2つとして現れている。
この調査はアプリケーション指向の視点を採用して、RAG、推論の強化、およびエージェントシステムへの幻覚への統合について分析する。
論文 参考訳(メタデータ) (2025-10-28T14:48:57Z) - LUMINA: Detecting Hallucinations in RAG System with Context-Knowledge Signals [7.61196995380844]
Retrieval-Augmented Generation (RAG) は、検索した文書に応答を接地することで、大規模言語モデル(LLM)における幻覚を軽減することを目的としている。
しかし、RAGベースのLLMは、正確で十分なコンテキストが提供されても、まだ幻覚的である。
本稿では,RAGシステムにおける幻覚を検出する新しいフレームワークLUMINAを提案する。
論文 参考訳(メタデータ) (2025-09-26T04:57:46Z) - Enhancing Retrieval Augmentation via Adversarial Collaboration [50.117273835877334]
我々は「検索幻覚」に対処するため、Adrial Collaboration RAG(AC-RAG)フレームワークを提案する。
AC-RAGは、知識ギャップを識別するジェネリスト検出器と、正確な解決策を提供するドメイン特化リゾルバという2つの異種エージェントを使用している。
実験により、AC-RAGは検索精度を大幅に向上し、様々な垂直領域における最先端RAG法より優れていることが示された。
論文 参考訳(メタデータ) (2025-09-18T08:54:20Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Unanswerability Evaluation for Retrieval Augmented Generation [74.3022365715597]
UAEval4RAGは、RAGシステムが解答不能なクエリを効果的に処理できるかどうかを評価するために設計されたフレームワークである。
我々は、6つの未解決カテゴリを持つ分類を定義し、UAEval4RAGは、多様で挑戦的なクエリを自動的に合成する。
論文 参考訳(メタデータ) (2024-12-16T19:11:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。