論文の概要: Critical Confabulation: Can LLMs Hallucinate for Social Good?
- arxiv url: http://arxiv.org/abs/2511.07722v1
- Date: Wed, 12 Nov 2025 01:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.447565
- Title: Critical Confabulation: Can LLMs Hallucinate for Social Good?
- Title(参考訳): 批判的衝突:LLMは社会的善のために幻覚できるか?
- Authors: Peiqi Sui, Eamon Duede, Hoyt Long, Richard Jean So,
- Abstract要約: 我々は,社会的・政治的不平等によるアーカイブの欠落を補うための批判的妥協を提案する。
我々は、歴史の「隠された人物」について、相変わらず証拠に縛られた物語を再構築する。
本研究は,LLMの基本的物語理解能力を評価し,批判的評価を行った。
- 参考スコア(独自算出の注目度): 4.013184717814947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs hallucinate, yet some confabulations can have social affordances if carefully bounded. We propose critical confabulation (inspired by critical fabulation from literary and social theory), the use of LLM hallucinations to "fill-in-the-gap" for omissions in archives due to social and political inequality, and reconstruct divergent yet evidence-bound narratives for history's "hidden figures". We simulate these gaps with an open-ended narrative cloze task: asking LLMs to generate a masked event in a character-centric timeline sourced from a novel corpus of unpublished texts. We evaluate audited (for data contamination), fully-open models (the OLMo-2 family) and unaudited open-weight and proprietary baselines under a range of prompts designed to elicit controlled and useful hallucinations. Our findings validate LLMs' foundational narrative understanding capabilities to perform critical confabulation, and show how controlled and well-specified hallucinations can support LLM applications for knowledge production without collapsing speculation into a lack of historical accuracy and fidelity.
- Abstract(参考訳): LLMは幻覚を与えるが、慎重に拘束された場合、社会的な余裕を持つ者もいる。
本稿は,文学・社会理論の批判的ファブリケーションから着想を得た)批判的非難,社会的・政治的不平等によるアーカイブの欠落に LLM の幻覚を埋めること,そして歴史の「隠された人物」に対する異質で証拠に富んだ物語を再構築することを提案する。
未発表テキストの新たなコーパスから得られた文字中心のタイムラインで,LSMにマスキングイベントを生成するよう依頼する。
データ汚染,全オープンモデル (OLMo-2 ファミリー) およびオープンウェイトおよびプロプライエタリベースラインを制御および有用な幻覚を誘発する一連のプロンプトで評価した。
本研究は,LLMの基本的物語理解能力を評価し,制御された幻覚が,歴史的精度と忠実さの欠如に憶測を損なうことなく,LLMの知識生産への活用をいかに支援できるかを示す。
関連論文リスト
- DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language Models Meet False Premises [28.72485319617863]
幻覚を緩和する新しいプロンプトアルゴリズムDecoPromptを提案する。
DecoPrompt は LLM を利用して偽前提のプロンプトを "デコード" する。
2つのデータセットで実験を行い、DecoPromptは異なるLLMから出力された幻覚を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2024-11-12T00:48:01Z) - WildHallucinations: Evaluating Long-form Factuality in LLMs with Real-World Entity Queries [64.239202960816]
事実性を評価するベンチマークであるWildHallucinationsを紹介する。
それは、大きな言語モデルに、ユーザーとチャットボットの会話から抽出されたエンティティに関する情報を生成するよう促すことによって実現している。
我々は15個のLDMから7,919個のエンティティ上で118,785世代を評価した。
論文 参考訳(メタデータ) (2024-07-24T17:59:05Z) - Look Within, Why LLMs Hallucinate: A Causal Perspective [16.874588396996764]
大規模言語モデル(LLM)は、生成人工知能のマイルストーンであり、テキスト理解と生成タスクにおいて大きな成功を収めている。
LLMは深刻な幻覚障害に悩まされ、LLMの実用化に重大な課題が生じた。
LLMの自己注意層に介入し,その構造とサイズをそのまま維持する手法を提案する。
論文 参考訳(メタデータ) (2024-07-14T10:47:44Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - The Dawn After the Dark: An Empirical Study on Factuality Hallucination
in Large Language Models [134.6697160940223]
幻覚は、大きな言語モデルの信頼できるデプロイには大きな課題となります。
幻覚(検出)の検出方法、LLMが幻覚(ソース)をなぜ検出するのか、そしてそれを緩和するために何ができるか、という3つの重要な疑問がよく研究されるべきである。
本研究は, 幻覚検出, 発生源, 緩和の3つの側面に着目した, LLM幻覚の系統的研究である。
論文 参考訳(メタデータ) (2024-01-06T12:40:45Z) - LLM Lies: Hallucinations are not Bugs, but Features as Adversarial Examples [17.012156573134067]
ランダムなトークンからなる非意味なプロンプトは、幻覚に反応するために大きな言語モデルを引き出すことができることを示す。
我々は, 自動幻覚トリガー法を, 対向的にテキスト幻覚攻撃として定式化する。
私たちのコードはGitHubでリリースされています。
論文 参考訳(メタデータ) (2023-10-02T17:01:56Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large Language Models [124.90671698586249]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。