論文の概要: Shakespearean Sparks: The Dance of Hallucination and Creativity in LLMs' Decoding Layers
- arxiv url: http://arxiv.org/abs/2503.02851v1
- Date: Tue, 04 Mar 2025 18:27:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:39.704455
- Title: Shakespearean Sparks: The Dance of Hallucination and Creativity in LLMs' Decoding Layers
- Title(参考訳): Shakespearean Sparks: LLMのデコードレイヤーにおける幻覚と創造性の踊り
- Authors: Zicong He, Boxuan Zhang, Lu Cheng,
- Abstract要約: 大型言語モデル(LLM)は幻覚として知られており、しばしば創造性に結びつく現象である。
復号時に異なるLCM層にまたがるハロシン化と創造性を定量化する評価フレームワークHCLを導入する。
私たちの経験的分析は、層深さ、モデルタイプ、モデルサイズで整合した幻覚と創造性のトレードオフを明らかにします。
- 参考スコア(独自算出の注目度): 3.4307476319801213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are known to hallucinate, a phenomenon often linked to creativity. While previous research has primarily explored this connection through theoretical or qualitative lenses, our work takes a quantitative approach to systematically examine the relationship between hallucination and creativity in LLMs. Given the complex nature of creativity, we propose a narrow definition tailored to LLMs and introduce an evaluation framework, HCL, which quantifies Hallucination and Creativity across different Layers of LLMs during decoding. Our empirical analysis reveals a tradeoff between hallucination and creativity that is consistent across layer depth, model type, and model size. Notably, across different model architectures, we identify a specific layer at each model size that optimally balances this tradeoff. Additionally, the optimal layer tends to appear in the early layers of larger models, and the confidence of the model is also significantly higher at this layer. These findings provide a quantitative perspective that offers new insights into the interplay between LLM creativity and hallucination. The code and data for our experiments are available at https://github.com/ZicongHe2002/HCL-Spark.
- Abstract(参考訳): 大型言語モデル(LLM)は幻覚として知られており、しばしば創造性に結びつく現象である。
これまでの研究では、理論レンズや定性的レンズを用いてこの関係を探索してきたが、我々の研究は、LLMにおける幻覚と創造性の関係を体系的に研究するための定量的アプローチを採っている。
クリエイティビティの複雑な性質を考慮し,LLMに合わせた狭い定義を提案し,デコード中に異なるLLM層にまたがる幻覚と創造性を定量化する評価フレームワークHCLを提案する。
私たちの経験的分析は、層深さ、モデルタイプ、モデルサイズで整合した幻覚と創造性のトレードオフを明らかにします。
特に、異なるモデルアーキテクチャにおいて、このトレードオフを最適にバランスする各モデルサイズの特定のレイヤを特定します。
さらに、最適層はより大きなモデルの初期の層に現れる傾向があり、この層ではモデルの信頼性も著しく高い。
これらの知見は、LCMの創造性と幻覚との相互作用に関する新たな洞察を提供する定量的視点を提供する。
実験用のコードとデータはhttps://github.com/ZicongHe2002/HCL-Sparkで公開されています。
関連論文リスト
- Towards Long Context Hallucination Detection [49.195854802543714]
大規模言語モデル(LLM)は、様々なタスクで顕著なパフォーマンスを示している。
それらは文脈の幻覚に傾向があり、与えられた文脈に不一致または矛盾した情報を生成する。
本稿では,BERTのような事前学習したエンコーダモデルを用いて,長期のコンテキストを処理し,文脈の幻覚を効果的に検出するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-28T03:47:05Z) - From "Hallucination" to "Suture": Insights from Language Philosophy to Enhance Large Language Models [1.03341388090561]
本稿では,大規模言語モデル(LLM)における幻覚現象について,言語哲学と精神分析のレンズを用いて検討する。
ラカンの「記号の鎖」と「補足点」の概念を取り入れることで、幻覚を緩和するための新しいアプローチとしてアンカー・RAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-18T16:27:01Z) - A Causality-aware Paradigm for Evaluating Creativity of Multimodal Large Language Models [100.16387798660833]
オオギリゲーム(オオギリゲーム)は、ユーモアと連想的思考を必要とする創造的な仕事である。
LoTbenchはインタラクティブで因果性を考慮した評価フレームワークである。
その結果、ほとんどのLLMは制約された創造性を示すが、LLMと人間の間の性能格差は克服できないことがわかった。
論文 参考訳(メタデータ) (2025-01-25T09:11:15Z) - Iter-AHMCL: Alleviate Hallucination for Large Language Model via Iterative Model-level Contrastive Learning [16.883679810267342]
幻覚に対処するための反復モデルレベルのコントラスト学習(Iter-AHMCL)
本稿では,幻覚に対処するイテレーティブモデルレベルのコントラスト学習(Iter-AHMCL)を提案する。
論文 参考訳(メタデータ) (2024-10-16T00:15:40Z) - MLLM can see? Dynamic Correction Decoding for Hallucination Mitigation [50.73561815838431]
MLLM(Multimodal Large Language Models)はしばしば幻覚現象を示す。
実験により,MLLMは最終出力のオブジェクトを誤って生成するが,前層の視覚的オブジェクトを認識できることがわかった。
そこで本研究では,MLLMs DeCoの動的補正復号法を提案する。この手法は,適切な先行層を適応的に選択し,最終層に知識を比例的に統合し,出力ロジットを調整する。
論文 参考訳(メタデータ) (2024-10-15T16:57:44Z) - LLM Hallucinations in Practical Code Generation: Phenomena, Mechanism, and Mitigation [33.46342144822026]
コード生成は、入力要求からコードを自動的に生成することを目的としており、開発効率を大幅に向上させる。
最近の大規模言語モデル(LLM)ベースのアプローチは、有望な結果を示し、コード生成タスクに革命をもたらした。
有望な性能にもかかわらず、LLMは、特にコード生成のシナリオにおいて、幻覚を伴うコンテンツを生成することが多い。
論文 参考訳(メタデータ) (2024-09-30T17:51:15Z) - Exploring Concept Depth: How Large Language Models Acquire Knowledge and Concept at Different Layers? [57.04803703952721]
大規模言語モデル(LLM)は、幅広いタスクで顕著なパフォーマンスを示している。
しかし、これらのモデルが様々な複雑さのタスクを符号化するメカニズムは、いまだに理解されていない。
概念深さ」の概念を導入し、より複雑な概念が一般的により深い層で得られることを示唆する。
論文 参考訳(メタデータ) (2024-04-10T14:56:40Z) - A Survey on Large Language Model Hallucination via a Creativity
Perspective [11.31666059218344]
大型言語モデル(LLM)における幻覚は常に制限と見なされる。
クリエイティビティの源でもあるのでしょうか?
本調査は, この可能性を探究し, 創造性を育むことによって幻覚が LLM の応用に寄与する可能性を示唆している。
論文 参考訳(メタデータ) (2024-02-02T12:21:04Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。