論文の概要: A Comprehensive Survey of Hallucination in Large Language Models: Causes, Detection, and Mitigation
- arxiv url: http://arxiv.org/abs/2510.06265v1
- Date: Sun, 05 Oct 2025 20:26:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.077728
- Title: A Comprehensive Survey of Hallucination in Large Language Models: Causes, Detection, and Mitigation
- Title(参考訳): 大規模言語モデルにおける幻覚の包括的調査:原因,検出,緩和
- Authors: Aisha Alansari, Hamzah Luqman,
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理を変革し、様々なタスクで優れたパフォーマンスを実現している。
派手な派手さは、しばしば幻覚(幻覚)として知られる偽情報や偽情報を生み出すコストが伴う。
この調査は、LSMにおける幻覚の研究を包括的にレビューし、原因、検出、緩和に焦点を当てている。
- 参考スコア(独自算出の注目度): 3.8100688074986095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have transformed natural language processing, achieving remarkable performance across diverse tasks. However, their impressive fluency often comes at the cost of producing false or fabricated information, a phenomenon known as hallucination. Hallucination refers to the generation of content by an LLM that is fluent and syntactically correct but factually inaccurate or unsupported by external evidence. Hallucinations undermine the reliability and trustworthiness of LLMs, especially in domains requiring factual accuracy. This survey provides a comprehensive review of research on hallucination in LLMs, with a focus on causes, detection, and mitigation. We first present a taxonomy of hallucination types and analyze their root causes across the entire LLM development lifecycle, from data collection and architecture design to inference. We further examine how hallucinations emerge in key natural language generation tasks. Building on this foundation, we introduce a structured taxonomy of detection approaches and another taxonomy of mitigation strategies. We also analyze the strengths and limitations of current detection and mitigation approaches and review existing evaluation benchmarks and metrics used to quantify LLMs hallucinations. Finally, we outline key open challenges and promising directions for future research, providing a foundation for the development of more truthful and trustworthy LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理を変革し、様々なタスクで優れたパフォーマンスを実現している。
しかし、その顕著な流行は、幻覚と呼ばれる現象である偽情報や偽情報を生み出すコストが伴うことが多い。
幻覚(はんきゅう、英: Hallucination)とは、LLMによる内容の生成をいう。
幻覚はLLMの信頼性と信頼性を損なう。
この調査は、LSMにおける幻覚の研究を包括的にレビューし、原因、検出、緩和に焦点を当てている。
まず,幻覚の分類を提示し,その根本原因をデータ収集やアーキテクチャ設計から推論まで,LLM開発ライフサイクル全体にわたって分析する。
さらに、重要な自然言語生成タスクにおいて幻覚がどのように現れるかについても検討する。
この基盤を基盤として,検出アプローチの構造的分類法と緩和戦略の別の分類法を導入する。
また、現在の検出・緩和手法の強度と限界を分析し、LLMの幻覚の定量化に使用される既存の評価ベンチマークとメトリクスをレビューする。
最後に、今後の研究の鍵となる課題と有望な方向性を概説し、より誠実で信頼性の高いLLMの開発のための基盤を提供する。
関連論文リスト
- Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Rowen: Adaptive Retrieval-Augmented Generation for Hallucination Mitigation in LLMs [88.75700174889538]
幻覚は大きな言語モデル(LLM)にとって大きな課題となる。
実物生成におけるパラメトリック知識の利用は, LLMの限られた知識によって制限される。
本稿では,幻覚出力に対応する適応的検索拡張プロセスによりLLMを強化する新しいフレームワークであるRowenについて述べる。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions [40.79317187623401]
大規模言語モデル(LLM)の出現は、自然言語処理(NLP)において大きなブレークスルーとなった。
LLMは幻覚を起こす傾向があり、可視だが非現実的な内容を生成する。
この現象は、実世界の情報検索システムにおけるLCMの信頼性に対する重大な懸念を引き起こす。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large Language Models [124.90671698586249]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。