論文の概要: Loki's Dance of Illusions: A Comprehensive Survey of Hallucination in Large Language Models
- arxiv url: http://arxiv.org/abs/2507.02870v1
- Date: Fri, 06 Jun 2025 10:50:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-13 12:05:57.47427
- Title: Loki's Dance of Illusions: A Comprehensive Survey of Hallucination in Large Language Models
- Title(参考訳): Loki's Dance of Illusions: Aprehensive Survey of Hallucination in Large Language Models
- Authors: Chaozhuo Li, Pengbo Wang, Chenxu Wang, Litian Zhang, Zheng Liu, Qiwei Ye, Yuanbo Xu, Feiran Huang, Xi Zhang, Philip S. Yu,
- Abstract要約: 大型言語モデル(LLM)は、実際に正確に見えるが実際に作られた情報を生成することがある。
これらの幻覚の頻度は、ユーザを誤解させ、判断や判断に影響を及ぼす可能性がある。
金融、法律、医療などの分野では、このような誤報が重大な経済的損失、法的紛争、健康リスクを引き起こしている。
- 参考スコア(独自算出の注目度): 46.71180299830997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edgar Allan Poe noted, "Truth often lurks in the shadow of error," highlighting the deep complexity intrinsic to the interplay between truth and falsehood, notably under conditions of cognitive and informational asymmetry. This dynamic is strikingly evident in large language models (LLMs). Despite their impressive linguistic generation capabilities, LLMs sometimes produce information that appears factually accurate but is, in reality, fabricated, an issue often referred to as 'hallucinations'. The prevalence of these hallucinations can mislead users, affecting their judgments and decisions. In sectors such as finance, law, and healthcare, such misinformation risks causing substantial economic losses, legal disputes, and health risks, with wide-ranging consequences.In our research, we have methodically categorized, analyzed the causes, detection methods, and solutions related to LLM hallucinations. Our efforts have particularly focused on understanding the roots of hallucinations and evaluating the efficacy of current strategies in revealing the underlying logic, thereby paving the way for the development of innovative and potent approaches. By examining why certain measures are effective against hallucinations, our study aims to foster a comprehensive approach to tackling this issue within the domain of LLMs.
- Abstract(参考訳): エドガー・アラン・ポー (Edgar Allan Poe) は、「真実はしばしば誤りの影に潜んでいる」と記し、特に認知的・情報的非対称性の条件下で、真実と偽りの相互作用に固有の深い複雑さを強調した。
この力学は、大きな言語モデル(LLM)で顕著に明らかである。
その印象的な言語生成能力にもかかわらず、LLMは実際に正確に見える情報を生成することがあるが、実際には「幻覚」と呼ばれる問題である。
これらの幻覚の頻度は、ユーザを誤解させ、判断や判断に影響を及ぼす可能性がある。
金融、法、医療などの分野では、重大な経済的損失、法的紛争、健康リスクを生じさせるような誤情報リスクが広範囲に及んでいるが、本研究では、原因、検出方法、LLM幻覚に関連する解決策を体系的に分類、分析した。
我々の取り組みは、特に幻覚の根源を理解し、基礎となる論理を明らかにするための現在の戦略の有効性を評価し、革新的で強力なアプローチを開発するための道を開いた。
本研究は, 幻覚に対する何らかの対策が有効である理由を検討することにより, LLMの領域内でこの問題に対処するための包括的アプローチを育成することを目的とする。
関連論文リスト
- Triggering Hallucinations in LLMs: A Quantitative Study of Prompt-Induced Hallucination in Large Language Models [0.0]
大規模言語モデル(LLM)における幻覚は、現実世界のアプリケーションにまたがる課題が増えていることを示している。
幻覚を系統的に引き起こし定量化するプロンプトベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T14:33:47Z) - Delusions of Large Language Models [62.43923767408462]
大規模言語モデルは、しばしば幻覚として知られる、事実的に間違っているが、もっともらしい出力を生成する。
高信頼幻覚と定義され、不正確な出力を異常に高い信頼性で検出し、緩和することが難しくなる、より惨めな現象であるLSM妄想を識別する。
論文 参考訳(メタデータ) (2025-03-09T17:59:16Z) - Trust Me, I'm Wrong: High-Certainty Hallucinations in LLMs [45.13670875211498]
LLM(Large Language Models)はしばしば、幻覚として知られる実世界の事実に根ざしていない出力を生成する。
モデルが正しい知識を持つ場合でも、高い確実性で幻覚できることを示す。
論文 参考訳(メタデータ) (2025-02-18T15:46:31Z) - Combating Multimodal LLM Hallucination via Bottom-Up Holistic Reasoning [151.4060202671114]
マルチモーダル大規模言語モデル(MLLM)は、視覚言語タスクを前進させる前例のない能力を示した。
本稿では,MLLMにおける幻覚に対処するためのボトムアップ推論フレームワークを提案する。
本フレームワークは、認識レベル情報と認知レベルコモンセンス知識を検証・統合することにより、視覚とテキストの両方の入力における潜在的な問題に体系的に対処する。
論文 参考訳(メタデータ) (2024-12-15T09:10:46Z) - Redefining "Hallucination" in LLMs: Towards a psychology-informed
framework for mitigating misinformation [0.7826806223782052]
認知バイアスやその他の心理的現象に基づく心理的分類法を提案する。
人間が同様の課題を内部的に解決する方法の洞察を活用することで、幻覚を緩和するための戦略を開発することを目指している。
論文 参考訳(メタデータ) (2024-02-01T03:01:11Z) - The Dawn After the Dark: An Empirical Study on Factuality Hallucination
in Large Language Models [134.6697160940223]
幻覚は、大きな言語モデルの信頼できるデプロイには大きな課題となります。
幻覚(検出)の検出方法、LLMが幻覚(ソース)をなぜ検出するのか、そしてそれを緩和するために何ができるか、という3つの重要な疑問がよく研究されるべきである。
本研究は, 幻覚検出, 発生源, 緩和の3つの側面に着目した, LLM幻覚の系統的研究である。
論文 参考訳(メタデータ) (2024-01-06T12:40:45Z) - A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions [40.79317187623401]
大規模言語モデル(LLM)の出現は、自然言語処理(NLP)において大きなブレークスルーとなった。
LLMは幻覚を起こす傾向があり、可視だが非現実的な内容を生成する。
この現象は、実世界の情報検索システムにおけるLCMの信頼性に対する重大な懸念を引き起こす。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。