論文の概要: Confabulation: The Surprising Value of Large Language Model Hallucinations
- arxiv url: http://arxiv.org/abs/2406.04175v1
- Date: Thu, 6 Jun 2024 15:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 14:10:28.878213
- Title: Confabulation: The Surprising Value of Large Language Model Hallucinations
- Title(参考訳): 衝突: 大規模言語モデル幻覚の意外な価値
- Authors: Peiqi Sui, Eamon Duede, Sophie Wu, Richard Jean So,
- Abstract要約: ナラティビティを認知的資源として活用するために,LLMのコミュニケーションの計測可能な意味的特性は,人間の正当性を反映している,と我々は主張する。
この発見は、通常、非難の否定的な理解の中で緊張を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.7249731529275342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a systematic defense of large language model (LLM) hallucinations or 'confabulations' as a potential resource instead of a categorically negative pitfall. The standard view is that confabulations are inherently problematic and AI research should eliminate this flaw. In this paper, we argue and empirically demonstrate that measurable semantic characteristics of LLM confabulations mirror a human propensity to utilize increased narrativity as a cognitive resource for sense-making and communication. In other words, it has potential value. Specifically, we analyze popular hallucination benchmarks and reveal that hallucinated outputs display increased levels of narrativity and semantic coherence relative to veridical outputs. This finding reveals a tension in our usually dismissive understandings of confabulation. It suggests, counter-intuitively, that the tendency for LLMs to confabulate may be intimately associated with a positive capacity for coherent narrative-text generation.
- Abstract(参考訳): 本稿では,大言語モデル (LLM) の幻覚や「対話」を,分類的に否定的な落とし穴ではなく潜在的資源として体系的に防御する。
標準的な見解では、コミュニケーションは本質的に問題であり、AI研究はこの欠陥を排除すべきである。
本稿では,LLMのコミュニケーションの認知的資源としてナラティビティの増大を活用すべく,LLMの可測な意味的特性が人間の正当性を反映している,と論じ,実証的な実証を行った。
言い換えれば、潜在的な価値がある。
具体的には、一般的な幻覚ベンチマークを分析し、幻覚出力は、検証結果と比較して、ナラティリティとセマンティックコヒーレンス(意味的コヒーレンス)のレベルが増大していることを明らかにする。
この発見は、通常、非難の否定的な理解の中で緊張を浮き彫りにしている。
反故意に、LCMが相反する傾向は、コヒーレントな物語文生成の正の能力と密接に関連している可能性があることを示唆している。
関連論文リスト
- Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - On Large Language Models' Hallucination with Regard to Known Facts [74.96789694959894]
大規模な言語モデルはファクトイドの質問に答えることに成功したが、幻覚を起こす傾向がある。
正しい解答知識を持つLLMの現象を推論力学の観点から検討する。
我々の研究は、LLMの幻覚が既知の事実について、そしてより重要なのは、幻覚を正確に予測する理由を理解することに光を当てた。
論文 参考訳(メタデータ) (2024-03-29T06:48:30Z) - In-Context Sharpness as Alerts: An Inner Representation Perspective for
Hallucination Mitigation [36.31646727970656]
大規模言語モデル(LLM)は、しばしば幻覚を起こし、事実の誤りを引き起こす。
正しい世代は、不正な世代に比べて、コンテキスト内のトークンの隠された状態において、よりシャープなコンテキストアクティベーションを持つ傾向がある。
本研究では,テキスト内隠れ状態のシャープネス'を定量化し,デコード処理に組み込むエントロピーに基づく計量法を提案する。
論文 参考訳(メタデータ) (2024-03-03T15:53:41Z) - Retrieve Only When It Needs: Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models [68.91592125175787]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - Hallucinations in Neural Automatic Speech Recognition: Identifying
Errors and Hallucinatory Models [11.492702369437785]
幻覚は、ソースの発声とは意味的に無関係であるが、それでも流動的でコヒーレントである。
単語誤り率などの一般的なメトリクスは、幻覚モデルと非幻覚モデルとを区別できないことを示す。
本研究は,幻覚を識別する枠組みを考案し,その意味的関係と基礎的真理と流布との関係を解析する。
論文 参考訳(メタデータ) (2024-01-03T06:56:56Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Exploring the Relationship between LLM Hallucinations and Prompt
Linguistic Nuances: Readability, Formality, and Concreteness [6.009751153269125]
本研究では,アクセプションにおける言語的要因,特に可読性,形式性,具体性が幻覚の発生に与える影響について検討する。
以上の結果から,より形式性や具体性が高いと幻覚が低下する傾向が示唆された。
論文 参考訳(メタデータ) (2023-09-20T05:04:16Z) - Quantifying and Attributing the Hallucination of Large Language Models
via Association Analysis [29.043008337391075]
大きな言語モデル(LLM)は幻覚の問題に悩まされ、その信頼性を脅かす。
先行研究は、まず、現象の類似性に応じて幻覚を分類し、次に、モデル出力が幻覚内容を含む割合を定量化する。
本研究は,LLMの幻覚率とリスク要因のセットの関係を構築できる関連分析を通じて,幻覚レベルと幻覚理由の調査を組み合わせたものである。
論文 参考訳(メタデータ) (2023-09-11T03:35:00Z) - Contrastive Learning Reduces Hallucination in Conversations [76.55116206021346]
そこで我々はMixCLという対照的な学習手法を提案する。
LMの暗黙的知識抽出過程を明示的に最適化するために、新しい混合コントラスト目的を提案する。
我々は、MixCLが最先端KBベースのアプローチに匹敵する性能を実現することを示す。
論文 参考訳(メタデータ) (2022-12-20T16:26:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。