論文の概要: Mitigating Hallucination in Large Language Models (LLMs): An Application-Oriented Survey on RAG, Reasoning, and Agentic Systems
- arxiv url: http://arxiv.org/abs/2510.24476v1
- Date: Tue, 28 Oct 2025 14:48:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.235152
- Title: Mitigating Hallucination in Large Language Models (LLMs): An Application-Oriented Survey on RAG, Reasoning, and Agentic Systems
- Title(参考訳): 大規模言語モデル(LLM)における幻覚の緩和 : RAG, 推論, エージェントシステムに関するアプリケーション指向調査
- Authors: Yihan Li, Xiyuan Fu, Ghanshyam Verma, Paul Buitelaar, Mingming Liu,
- Abstract要約: 幻覚は、大きな言語モデルの信頼できるデプロイにおける重要な障害の1つです。
Retrieval-Augmented Generation (RAG) と推論の強化は、最も効果的で広く採用されているアプローチの2つとして現れている。
この調査はアプリケーション指向の視点を採用して、RAG、推論の強化、およびエージェントシステムへの幻覚への統合について分析する。
- 参考スコア(独自算出の注目度): 3.7722124918244506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucination remains one of the key obstacles to the reliable deployment of large language models (LLMs), particularly in real-world applications. Among various mitigation strategies, Retrieval-Augmented Generation (RAG) and reasoning enhancement have emerged as two of the most effective and widely adopted approaches, marking a shift from merely suppressing hallucinations to balancing creativity and reliability. However, their synergistic potential and underlying mechanisms for hallucination mitigation have not yet been systematically examined. This survey adopts an application-oriented perspective of capability enhancement to analyze how RAG, reasoning enhancement, and their integration in Agentic Systems mitigate hallucinations. We propose a taxonomy distinguishing knowledge-based and logic-based hallucinations, systematically examine how RAG and reasoning address each, and present a unified framework supported by real-world applications, evaluations, and benchmarks.
- Abstract(参考訳): 幻覚は、特に現実世界のアプリケーションにおいて、大規模言語モデル(LLM)の信頼性の高いデプロイにおける重要な障害の1つである。
様々な緩和戦略の中で、レトリーバル強化世代(RAG)と推論の強化は最も効果的で広く採用されているアプローチの2つとして現れており、幻覚を単に抑制することから、創造性と信頼性のバランスをとることへのシフトを示している。
しかし、その相乗的ポテンシャルと幻覚の緩和メカニズムはまだ体系的に検討されていない。
この調査では、RAG、推論強化、およびエージェントシステムへの統合が幻覚を緩和する方法を分析するために、機能強化のアプリケーション指向の視点を採用する。
本稿では,知識に基づく幻覚と論理に基づく幻覚を区別する分類法を提案し,RAGと推論がどのように対処するかを体系的に検討し,実世界のアプリケーションや評価,ベンチマークによって支援される統一されたフレームワークを提案する。
関連論文リスト
- Review of Hallucination Understanding in Large Language and Vision Models [65.29139004945712]
本稿では,多様なアプリケーションにまたがる画像とテキストの幻覚を特徴付けるフレームワークを提案する。
我々の調査によると、幻覚はデータ分布や遺伝バイアスの予測可能なパターンから生じることが多い。
この調査は、現実世界の生成AIシステムにおける幻覚に対するより堅牢で効果的なソリューションを開発する基盤を提供する。
論文 参考訳(メタデータ) (2025-09-26T09:23:08Z) - LLM-based Agents Suffer from Hallucinations: A Survey of Taxonomy, Methods, and Directions [80.12078194093013]
LLMをベースとした幻覚の包括的調査を行った。
そこで本研究では,異なる段階において発生するさまざまな種類の幻覚を識別する新しい分類法を提案する。
エージェント幻覚の出現の根底にある18の要因について詳細な検討を行った。
論文 参考訳(メタデータ) (2025-09-23T13:24:48Z) - MIRAGE-Bench: LLM Agent is Hallucinating and Where to Find Them [52.764019220214344]
幻覚は、大きな言語モデル(LLM)ベースのエージェントに重大なリスクをもたらす。
MIRAGE-Benchは対話型環境における幻覚の抽出と評価のための最初の統一ベンチマークである。
論文 参考訳(メタデータ) (2025-07-28T17:38:29Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Towards More Robust Retrieval-Augmented Generation: Evaluating RAG Under Adversarial Poisoning Attacks [45.07581174558107]
Retrieval-Augmented Generation (RAG) システムは幻覚を緩和するための有望な解決策として登場した。
RAGシステムは、検索コーパスに注入された悪意のある通路が、モデルに誤った結果をもたらす可能性がある、敵の毒殺攻撃に対して脆弱である。
本稿では、RAGシステムがこのような攻撃下でどのように振る舞うか、その堅牢性がどのように改善されるかについて、厳密に制御された実証研究を示す。
論文 参考訳(メタデータ) (2024-12-21T17:31:52Z) - A Survey of Automatic Hallucination Evaluation on Natural Language Generation [21.37538215193138]
LLM(Large Language Models)の急速な進歩は、モデルの信頼性を保証するために、幻覚を確実に評価する方法という、大きな課題をもたらしました。
本調査は105の評価手法を体系的に分析し,77.1%がLLMを対象としていることを明らかにする。
基礎的なデータセットとベンチマークの調査と評価方法論の分類に基づいて、フィールドを整理するための構造化された枠組みを定式化する。
論文 参考訳(メタデータ) (2024-04-18T09:52:18Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。