論文の概要: A Survey on Large Language Model Hallucination via a Creativity
Perspective
- arxiv url: http://arxiv.org/abs/2402.06647v1
- Date: Fri, 2 Feb 2024 12:21:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 13:52:34.439621
- Title: A Survey on Large Language Model Hallucination via a Creativity
Perspective
- Title(参考訳): 創造的視点による大規模言語モデル幻覚に関する調査
- Authors: Xuhui Jiang, Yuxing Tian, Fengrui Hua, Chengjin Xu, Yuanzhuo Wang,
Jian Guo
- Abstract要約: 大型言語モデル(LLM)における幻覚は常に制限と見なされる。
クリエイティビティの源でもあるのでしょうか?
本調査は, この可能性を探究し, 創造性を育むことによって幻覚が LLM の応用に寄与する可能性を示唆している。
- 参考スコア(独自算出の注目度): 11.31666059218344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucinations in large language models (LLMs) are always seen as
limitations. However, could they also be a source of creativity? This survey
explores this possibility, suggesting that hallucinations may contribute to LLM
application by fostering creativity. This survey begins with a review of the
taxonomy of hallucinations and their negative impact on LLM reliability in
critical applications. Then, through historical examples and recent relevant
theories, the survey explores the potential creative benefits of hallucinations
in LLMs. To elucidate the value and evaluation criteria of this connection, we
delve into the definitions and assessment methods of creativity. Following the
framework of divergent and convergent thinking phases, the survey
systematically reviews the literature on transforming and harnessing
hallucinations for creativity in LLMs. Finally, the survey discusses future
research directions, emphasizing the need to further explore and refine the
application of hallucinations in creative processes within LLMs.
- Abstract(参考訳): 大型言語モデル(LLM)における幻覚は常に制限と見なされる。
しかし、それらはクリエイティビティの源でもあるのだろうか?
この調査は、幻覚が創造性を育むことによってLLM応用に寄与する可能性を示唆している。
この調査は、幻覚の分類と、重要な応用におけるLLMの信頼性に対する負の影響のレビューから始まる。
そして、歴史的事例と最近の関連する理論を通して、LLMにおける幻覚の潜在的な創造的利益を探求する。
この関係の価値と評価基準を明らかにするために,創造性の定義と評価方法を考察する。
散発的・収束的な思考段階の枠組みに従って,LLMにおける幻覚の変容と活用に関する文献を体系的にレビューした。
最後に,LLMの創造的プロセスにおける幻覚の応用のさらなる探求と洗練の必要性を強調し,今後の研究方向性について考察した。
関連論文リスト
- Hallucinations Can Improve Large Language Models in Drug Discovery [10.573861741540853]
LLM(Large Language Models)の幻覚は研究者によって提起されているが、創薬、創薬、探索などの創造性が不可欠である分野においてその潜在能力は高い。
本稿では,幻覚が薬物発見におけるLSMを改善するという仮説を考案する。
論文 参考訳(メタデータ) (2025-01-23T16:45:51Z) - A Survey of Hallucination in Large Visual Language Models [48.794850395309076]
幻覚の存在は、様々な分野におけるLVLMの可能性と実用性を制限している。
LVLMの構造と幻覚の発生の主な原因を紹介する。
LVLMの幻覚評価ベンチマークについて述べる。
論文 参考訳(メタデータ) (2024-10-20T10:58:58Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Exploring and Evaluating Hallucinations in LLM-Powered Code Generation [14.438161741833687]
LLM(Large Language Models)は、ユーザの意図から逸脱した出力を生成し、内部的不整合を示すか、事実的知識と不整合を示す。
既存の研究は主に、自然言語生成の分野における幻覚の投資に重点を置いている。
我々は,LLM生成コードのテーマ解析を行い,その内に存在する幻覚を要約し,分類する。
幻覚認識におけるLLMの性能評価のためのベンチマークであるHaluCodeを提案する。
論文 参考訳(メタデータ) (2024-04-01T07:31:45Z) - Retrieve Only When It Needs: Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models [68.91592125175787]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - A Survey on Hallucination in Large Vision-Language Models [18.540878498840435]
LVLM(Large Vision-Language Models)は、実践的な実装の可能性から、AIの世界において注目を集めている。
しかし,「幻覚」は,現実の視覚的内容とそれに対応するテキスト生成のミスアライメントが,LVLMを活用する上で大きな課題となる。
我々は,LVLM関連幻覚を解明し,今後の緩和を促進するために検討する。
論文 参考訳(メタデータ) (2024-02-01T00:33:21Z) - The Dawn After the Dark: An Empirical Study on Factuality Hallucination
in Large Language Models [134.6697160940223]
幻覚は、大きな言語モデルの信頼できるデプロイには大きな課題となります。
幻覚(検出)の検出方法、LLMが幻覚(ソース)をなぜ検出するのか、そしてそれを緩和するために何ができるか、という3つの重要な疑問がよく研究されるべきである。
本研究は, 幻覚検出, 発生源, 緩和の3つの側面に着目した, LLM幻覚の系統的研究である。
論文 参考訳(メタデータ) (2024-01-06T12:40:45Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions [40.79317187623401]
大規模言語モデル(LLM)の出現は、自然言語処理(NLP)において大きなブレークスルーとなった。
LLMは幻覚を起こす傾向があり、可視だが非現実的な内容を生成する。
この現象は、実世界の情報検索システムにおけるLCMの信頼性に対する重大な懸念を引き起こす。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。