論文の概要: The Impact of Negated Text on Hallucination with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.20375v1
- Date: Thu, 23 Oct 2025 09:20:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.723724
- Title: The Impact of Negated Text on Hallucination with Large Language Models
- Title(参考訳): 否定テキストが大規模言語モデルによる幻覚に及ぼす影響
- Authors: Jaehyung Seo, Hyeonseok Moon, Heuiseok Lim,
- Abstract要約: 大規模言語モデルにおける幻覚に関する3つの重要かつ未解決の研究課題を設定した。
否定による文脈変化をLLMが認識できるかどうかを検討し,肯定的な症例に匹敵する幻覚を確実に識別できるかどうかを検討した。
我々の実験は、LLMが否定文の幻覚を効果的に検出するのに苦労していることを示し、論理的に矛盾する判断や不誠実な判断をしばしば生み出すことを示した。
- 参考スコア(独自算出の注目度): 28.803778385961945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies on hallucination in large language models (LLMs) have been actively progressing in natural language processing. However, the impact of negated text on hallucination with LLMs remains largely unexplored. In this paper, we set three important yet unanswered research questions and aim to address them. To derive the answers, we investigate whether LLMs can recognize contextual shifts caused by negation and still reliably distinguish hallucinations comparable to affirmative cases. We also design the NegHalu dataset by reconstructing existing hallucination detection datasets with negated expressions. Our experiments demonstrate that LLMs struggle to detect hallucinations in negated text effectively, often producing logically inconsistent or unfaithful judgments. Moreover, we trace the internal state of LLMs as they process negated inputs at the token level and reveal the challenges of mitigating their unintended effects.
- Abstract(参考訳): 大規模言語モデル(LLM)における幻覚に関する最近の研究は、自然言語処理において活発に進められている。
しかし, LLMによる幻覚に対する否定文の影響は未解明のままである。
本稿では,3つの重要かつ未解決な研究課題を設定し,それらに対処することを目的とした。
本研究は,LLMが否定による文脈変化を認識し,肯定的な症例に匹敵する幻覚を確実に識別できるかどうかを考察する。
また,既存の幻覚検出データセットを否定表現で再構成することでNegHaluデータセットを設計する。
我々の実験は、LLMが否定文の幻覚を効果的に検出するのに苦労していることを示し、論理的に矛盾する判断や不誠実な判断をしばしば生み出すことを示した。
さらに, LLMの内部状態をトークンレベルで処理し, 意図しない影響を緩和する上での課題を明らかにする。
関連論文リスト
- Loki's Dance of Illusions: A Comprehensive Survey of Hallucination in Large Language Models [46.71180299830997]
大型言語モデル(LLM)は、実際に正確に見えるが実際に作られた情報を生成することがある。
これらの幻覚の頻度は、ユーザを誤解させ、判断や判断に影響を及ぼす可能性がある。
金融、法律、医療などの分野では、このような誤報が重大な経済的損失、法的紛争、健康リスクを引き起こしている。
論文 参考訳(メタデータ) (2025-06-06T10:50:08Z) - Combating Multimodal LLM Hallucination via Bottom-Up Holistic Reasoning [151.4060202671114]
マルチモーダル大規模言語モデル(MLLM)は、視覚言語タスクを前進させる前例のない能力を示した。
本稿では,MLLMにおける幻覚に対処するためのボトムアップ推論フレームワークを提案する。
本フレームワークは、認識レベル情報と認知レベルコモンセンス知識を検証・統合することにより、視覚とテキストの両方の入力における潜在的な問題に体系的に対処する。
論文 参考訳(メタデータ) (2024-12-15T09:10:46Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Does Object Grounding Really Reduce Hallucination of Large Vision-Language Models? [53.89380284760555]
大型視覚言語モデル(LVLM)は、画像に見つからない概念に言及するキャプションを生成する。
これらの幻覚は、LVLMの信頼性を損なうものであり、ユビキタス採用の主な障害であることは間違いない。
最近の研究は、画像領域やオブジェクトをテキストスパンに明示的にアライメントする、接地目的の追加は、LVLM幻覚の量を減らすことを示唆している。
論文 参考訳(メタデータ) (2024-06-20T16:56:11Z) - Investigating and Addressing Hallucinations of LLMs in Tasks Involving Negation [44.486880633185756]
大規模言語モデル(LLM)は、様々な自然言語タスクで顕著なパフォーマンスを実現している。
LLMは出力の「ハロシン化」に関連する臨界限界に悩まされていることが示されている。
否定を伴う4つの課題について検討する:「偽の前提完了」「制約された事実生成」「複数選択質問応答」「製品生成」
我々は,LLaMA-2-chat,Vicuna,Orca-2といったオープンソースのLLMが,否定に関わるこれらの課題に大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-06-08T15:20:56Z) - The Dawn After the Dark: An Empirical Study on Factuality Hallucination
in Large Language Models [134.6697160940223]
幻覚は、大きな言語モデルの信頼できるデプロイには大きな課題となります。
幻覚(検出)の検出方法、LLMが幻覚(ソース)をなぜ検出するのか、そしてそれを緩和するために何ができるか、という3つの重要な疑問がよく研究されるべきである。
本研究は, 幻覚検出, 発生源, 緩和の3つの側面に着目した, LLM幻覚の系統的研究である。
論文 参考訳(メタデータ) (2024-01-06T12:40:45Z) - Hallucination Augmented Contrastive Learning for Multimodal Large
Language Model [53.65682783591723]
マルチモーダル大規模言語モデル(MLLM)は、自然言語と視覚情報を効率的に統合し、マルチモーダルタスクを処理できることが示されている。
しかし、MLLMは幻覚の基本的な限界に直面しており、誤った情報や偽情報を生成する傾向がある。
本稿では,MLLMにおける幻覚を表現学習の新たな視点から論じる。
論文 参考訳(メタデータ) (2023-12-12T04:05:15Z) - A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions [40.79317187623401]
大規模言語モデル(LLM)の出現は、自然言語処理(NLP)において大きなブレークスルーとなった。
LLMは幻覚を起こす傾向があり、可視だが非現実的な内容を生成する。
この現象は、実世界の情報検索システムにおけるLCMの信頼性に対する重大な懸念を引き起こす。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。