論文の概要: Does Less Hallucination Mean Less Creativity? An Empirical Investigation in LLMs
- arxiv url: http://arxiv.org/abs/2512.11509v1
- Date: Fri, 12 Dec 2025 12:14:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.761827
- Title: Does Less Hallucination Mean Less Creativity? An Empirical Investigation in LLMs
- Title(参考訳): 幻覚の減少は創造性を低下させるか? : LLMにおける実証的研究
- Authors: Mohor Banerjee, Nadya Yuki Wangsajaya, Syed Ali Redha Alsagoff, Min Sen Tan, Zachary Choy Kit Chun, Alvin Chan Guo Wei,
- Abstract要約: 幻覚とは、大きな言語モデル(LLM)における事実的に誤った内容の生成である
幻覚除去技術:検証の連鎖(CoVe)、コントラスト層(DoLa)による復号化(Retrieval-Augmented Generation)、
CoVeは分散思考を強化し、DoLaはそれを抑制し、RAGは最小限の影響を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit remarkable capabilities in natural language understanding and reasoning, but suffer from hallucination: the generation of factually incorrect content. While numerous methods have been developed to reduce hallucinations, their impact on creative generations remains unexplored. This gap is particularly critical for AI-assisted scientific discovery, which requires both factual accuracy and creative hypothesis generation. We investigate how three hallucination-reduction techniques: Chain of Verification (CoVe), Decoding by Contrasting Layers (DoLa), and Retrieval-Augmented Generation (RAG), affect creativity in LLMs. Evaluating multiple model families (LLaMA, Qwen, Mistral) at varying scales (1B - 70B parameters) on two creativity benchmarks (NeoCoder and CS4), we find that these methods have opposing effects on divergent creativity. CoVe enhances divergent thinking, DoLa suppresses it, and RAG shows minimal impact. Our findings provide guidance for selecting appropriate hallucination-reduction methods in scientific applications, where the balance between factual accuracy and creative exploration is crucial.
- Abstract(参考訳): 大きな言語モデル(LLM)は、自然言語の理解と推論において顕著な能力を示すが、幻覚に悩まされている。
幻覚を減らすために多くの方法が開発されてきたが、創造的世代への影響は未解明のままである。
このギャップは、事実の正確性と創造的仮説の生成の両方を必要とする、AIによる科学的発見にとって特に重要である。
実証の連鎖 (CoVe) , コントラスト層 (DoLa) による復号化 (Decoding by Contrasting Layers) , レトリーバル拡張生成 (Retrieval-Augmented Generation, RAG) の3つの幻覚除去技術がLCMの創造性にどのように影響するかを検討する。
複数のモデルファミリ (LLaMA, Qwen, Mistral) を2つのクリエイティビティベンチマーク (NeoCoder と CS4) 上で, 様々なスケール (1B - 70B パラメータ) で評価した結果, これらの手法が多様な創造性に反することがわかった。
CoVeは分散思考を強化し、DoLaはそれを抑制し、RAGは最小限の影響を示す。
本研究は,現実の精度と創造的探索のバランスが不可欠である科学的応用において,適切な幻覚除去法を選択するためのガイダンスを提供する。
関連論文リスト
- MIRAGE: Assessing Hallucination in Multimodal Reasoning Chains of MLLM [58.2298313720146]
マルチモーダル幻覚は多源性であり、様々な原因から生じる。
既存のベンチマークでは、知覚誘発幻覚と推論誘発幻覚を適切に区別することができない。
論文 参考訳(メタデータ) (2025-05-30T05:54:36Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - Delusions of Large Language Models [62.43923767408462]
大規模言語モデルは、しばしば幻覚として知られる、事実的に間違っているが、もっともらしい出力を生成する。
高信頼幻覚と定義され、不正確な出力を異常に高い信頼性で検出し、緩和することが難しくなる、より惨めな現象であるLSM妄想を識別する。
論文 参考訳(メタデータ) (2025-03-09T17:59:16Z) - Shakespearean Sparks: The Dance of Hallucination and Creativity in LLMs' Decoding Layers [3.4307476319801213]
大型言語モデル(LLM)は幻覚として知られており、しばしば創造性に結びつく現象である。
復号時に異なるLCM層にまたがるハロシン化と創造性を定量化する評価フレームワークHCLを導入する。
私たちの経験的分析は、層深さ、モデルタイプ、モデルサイズで整合した幻覚と創造性のトレードオフを明らかにします。
論文 参考訳(メタデータ) (2025-03-04T18:27:00Z) - Investigating and Addressing Hallucinations of LLMs in Tasks Involving Negation [44.486880633185756]
大規模言語モデル(LLM)は、様々な自然言語タスクで顕著なパフォーマンスを実現している。
LLMは出力の「ハロシン化」に関連する臨界限界に悩まされていることが示されている。
否定を伴う4つの課題について検討する:「偽の前提完了」「制約された事実生成」「複数選択質問応答」「製品生成」
我々は,LLaMA-2-chat,Vicuna,Orca-2といったオープンソースのLLMが,否定に関わるこれらの課題に大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-06-08T15:20:56Z) - A Survey on Large Language Model Hallucination via a Creativity
Perspective [11.31666059218344]
大型言語モデル(LLM)における幻覚は常に制限と見なされる。
クリエイティビティの源でもあるのでしょうか?
本調査は, この可能性を探究し, 創造性を育むことによって幻覚が LLM の応用に寄与する可能性を示唆している。
論文 参考訳(メタデータ) (2024-02-02T12:21:04Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。