論文の概要: LLM-based Agents Suffer from Hallucinations: A Survey of Taxonomy, Methods, and Directions
- arxiv url: http://arxiv.org/abs/2509.18970v1
- Date: Tue, 23 Sep 2025 13:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.856026
- Title: LLM-based Agents Suffer from Hallucinations: A Survey of Taxonomy, Methods, and Directions
- Title(参考訳): LLMをベースとした幻覚剤 : 分類学, 方法, 方向性に関する調査
- Authors: Xixun Lin, Yucheng Ning, Jingwen Zhang, Yan Dong, Yilong Liu, Yongxuan Wu, Xiaohua Qi, Nan Sun, Yanmin Shang, Pengfei Cao, Lixin Zou, Xu Chen, Chuan Zhou, Jia Wu, Shirui Pan, Bin Wang, Yanan Cao, Kai Chen, Songlin Hu, Li Guo,
- Abstract要約: LLMをベースとした幻覚の包括的調査を行った。
そこで本研究では,異なる段階において発生するさまざまな種類の幻覚を識別する新しい分類法を提案する。
エージェント幻覚の出現の根底にある18の要因について詳細な検討を行った。
- 参考スコア(独自算出の注目度): 80.12078194093013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by the rapid advancements of Large Language Models (LLMs), LLM-based agents have emerged as powerful intelligent systems capable of human-like cognition, reasoning, and interaction. These agents are increasingly being deployed across diverse real-world applications, including student education, scientific research, and financial analysis. However, despite their remarkable potential, LLM-based agents remain vulnerable to hallucination issues, which can result in erroneous task execution and undermine the reliability of the overall system design. Addressing this critical challenge requires a deep understanding and a systematic consolidation of recent advances on LLM-based agents. To this end, we present the first comprehensive survey of hallucinations in LLM-based agents. By carefully analyzing the complete workflow of agents, we propose a new taxonomy that identifies different types of agent hallucinations occurring at different stages. Furthermore, we conduct an in-depth examination of eighteen triggering causes underlying the emergence of agent hallucinations. Through a detailed review of a large number of existing studies, we summarize approaches for hallucination mitigation and detection, and highlight promising directions for future research. We hope this survey will inspire further efforts toward addressing hallucinations in LLM-based agents, ultimately contributing to the development of more robust and reliable agent systems.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩によって、LLMベースのエージェントは、人間のような認識、推論、相互作用が可能な強力なインテリジェントシステムとして登場した。
これらのエージェントは、学生教育、科学研究、財務分析など、さまざまな現実世界のアプリケーションに展開されつつある。
しかし、LSMをベースとしたエージェントは、その大きな可能性にもかかわらず、幻覚に弱いままであり、誤ったタスク実行を引き起こし、システム設計全体の信頼性を損なう可能性がある。
この重要な課題に対処するには、LLMベースのエージェントに関する最近の進歩の深い理解と体系的な統合が必要である。
この目的のために, LLM をベースとした幻覚の包括的調査を行った。
エージェントの完全なワークフローを慎重に分析することにより、異なる段階で発生するさまざまな種類のエージェント幻覚を識別する新しい分類法を提案する。
さらに,エージェント幻覚の出現の根底にある18の要因について,詳細な検討を行った。
多数の既存研究の詳細なレビューを通じて,幻覚の緩和と検出のアプローチを要約し,今後の研究に向けた有望な方向性を明らかにする。
この調査は、LSMをベースとしたエージェントの幻覚対策へのさらなる取り組みを刺激し、最終的にはより堅牢で信頼性の高いエージェントシステムの開発に寄与することを期待します。
関連論文リスト
- MIRAGE-Bench: LLM Agent is Hallucinating and Where to Find Them [52.764019220214344]
幻覚は、大きな言語モデル(LLM)ベースのエージェントに重大なリスクをもたらす。
MIRAGE-Benchは対話型環境における幻覚の抽出と評価のための最初の統一ベンチマークである。
論文 参考訳(メタデータ) (2025-07-28T17:38:29Z) - Towards Mitigation of Hallucination for LLM-empowered Agents: Progressive Generalization Bound Exploration and Watchdog Monitor [18.9616029343245]
大型言語モデル(LLM)が生成する幻覚は、知的エージェントの信頼性を損なう。
HalMitは、LCMを動力とするエージェントの一般化境界をモデル化する、新しいブラックボックスウォッチドッグフレームワークである。
論文 参考訳(メタデータ) (2025-07-21T09:08:58Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Hallucination of Multimodal Large Language Models: A Survey [40.73148186369018]
マルチモーダル大規模言語モデル(MLLM)は,多モーダルタスクにおいて顕著な進歩と顕著な能力を示した。
これらの有望な発展にもかかわらず、MLLMは視覚的内容と矛盾する出力をしばしば生成する。
本調査は,MLLMにおける幻覚の理解を深め,この分野のさらなる進歩を促すことを目的としている。
論文 参考訳(メタデータ) (2024-04-29T17:59:41Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large Language Models [124.90671698586249]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。