論文の概要: Why LVLMs Are More Prone to Hallucinations in Longer Responses: The Role of Context
- arxiv url: http://arxiv.org/abs/2510.20229v1
- Date: Thu, 23 Oct 2025 05:22:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.433914
- Title: Why LVLMs Are More Prone to Hallucinations in Longer Responses: The Role of Context
- Title(参考訳): LVLMの長期反応における幻覚の傾向 : 文脈の役割
- Authors: Ge Zheng, Jiaye Qian, Jiajin Tang, Sibei Yang,
- Abstract要約: LVLM(Large Vision-Language Models)は近年大きな進歩を遂げているが、幻覚の傾向にある。
本稿では, 覚醒の増加は, 長さによる誤差のみに起因するのか, それとも, より根底にあるメカニズムがあるのかを問う。
本稿では,意図的設計による幻覚を積極的に誘発する新しい「インデューサ・ディテクト・プレッション」フレームワークを提案する。
- 参考スコア(独自算出の注目度): 34.903722603279014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Vision-Language Models (LVLMs) have made significant progress in recent years but are also prone to hallucination issues. They exhibit more hallucinations in longer, free-form responses, often attributed to accumulated uncertainties. In this paper, we ask: Does increased hallucination result solely from length-induced errors, or is there a deeper underlying mechanism? After a series of preliminary experiments and findings, we suggest that the risk of hallucinations is not caused by length itself but by the increased reliance on context for coherence and completeness in longer responses. Building on these insights, we propose a novel "induce-detect-suppress" framework that actively induces hallucinations through deliberately designed contexts, leverages induced instances for early detection of high-risk cases, and ultimately suppresses potential object-level hallucinations during actual decoding. Our approach achieves consistent, significant improvements across all benchmarks, demonstrating its efficacy. The strong detection and improved hallucination mitigation not only validate our framework but, more importantly, re-validate our hypothesis on context. Rather than solely pursuing performance gains, this study aims to provide new insights and serves as a first step toward a deeper exploration of hallucinations in LVLMs' longer responses.
- Abstract(参考訳): LVLM(Large Vision-Language Models)は近年大きな進歩を遂げているが、幻覚の問題も起こりやすい。
彼らは長い自由形式の反応においてより幻覚を示し、しばしば蓄積された不確実性に起因する。
本稿では, 覚醒の増加は, 長さによる誤差のみに起因するのか, それとも, より根底にあるメカニズムがあるのかを問う。
一連の予備実験および実験の結果, 幻覚の危険性は, 長さ自体によるものではなく, より長い応答におけるコヒーレンスと完全性への文脈依存の増大によるものであることが示唆された。
これらの知見に基づいて,意図的設計による幻覚を積極的に誘導し,高リスクケースの早期検出に誘導されたインスタンスを活用し,最終的に実際の復号時に潜在的対象レベルの幻覚を抑える,新しい「インデューサ・デテクスト・サプレッション」フレームワークを提案する。
提案手法は,すべてのベンチマークにおいて一貫した,重要な改善を実現し,その有効性を実証する。
強い検出と改善された幻覚の緩和は、我々の枠組みを検証するだけでなく、より重要なことは、私たちの文脈に関する仮説を再検証することです。
本研究は、単にパフォーマンス向上を追求するのではなく、新たな洞察を提供することを目標とし、LVLMの長期応答における幻覚のより深い探索に向けた第一歩として機能する。
関連論文リスト
- Test-Time Scaling in Reasoning Models Is Not Effective for Knowledge-Intensive Tasks Yet [93.00109641811788]
テストタイムスケーリングは、モデルが長い推論チェーンを生成することによって、推論時間計算を増加させる。
本手法は,知識集約型タスクにおいて,高い事実的精度と低幻覚率が不可欠である場合において,まだ有効ではないことを示す。
以上の結果から,テスト時間計算の増大は必ずしも精度の向上には至らず,多くの場合において幻覚の増大につながることが示唆された。
論文 参考訳(メタデータ) (2025-09-08T16:28:25Z) - Two Causes, Not One: Rethinking Omission and Fabrication Hallucinations in MLLMs [31.601057368065877]
既存の手法は、省略と製造幻覚が共通の原因を共有するという欠点のある仮定に基づいており、しばしば省略を減らし、より多くの製造を誘発する。
本研究は,視覚的特徴を言語表現にマッピングする場合に,排他的幻覚が不十分な自信から生じることを示すことによって,この見解を覆すものである。
本研究では,物体の存在や不在を視覚的証拠がどのように推測するかを明らかにする概念的枠組みである視覚意味的注意力場を提案する。
論文 参考訳(メタデータ) (2025-08-30T05:47:41Z) - Mitigating Behavioral Hallucination in Multimodal Large Language Models for Sequential Images [6.48620624181578]
SHE(Sequence Hallucination Eradication)は,幻覚を検知し緩和する軽量なフレームワークである。
また,行動幻覚の重症度を定量化する新しい指標(BEACH)を提案する。
論文 参考訳(メタデータ) (2025-06-08T15:08:52Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - Trust Me, I'm Wrong: LLMs Hallucinate with Certainty Despite Knowing the Answer [51.7407540261676]
本研究では,モデルが常に正しい解答を行うことのできる幻覚の別のタイプについて検討するが,一見自明な摂動は,高い確実性で幻覚応答を生じさせる。
この現象は特に医学や法学などの高度な領域において、モデルの確実性はしばしば信頼性の代用として使用される。
CHOKEの例は、プロンプト間で一貫性があり、異なるモデルやデータセットで発生し、他の幻覚と根本的に異なることを示す。
論文 参考訳(メタデータ) (2025-02-18T15:46:31Z) - HalluEntity: Benchmarking and Understanding Entity-Level Hallucination Detection [16.27352940098609]
本稿では,エンティティレベルで幻覚を注釈する新たなデータセットであるHaluEntityを提案する。
このデータセットに基づいて、17の近代LCMにおける不確実性に基づく幻覚検出手法を評価する。
実験の結果,個々のトークン確率に着目した不確実性推定手法は幻覚を過度に予測する傾向があることがわかった。
論文 参考訳(メタデータ) (2025-02-17T16:01:41Z) - Combating Multimodal LLM Hallucination via Bottom-Up Holistic Reasoning [151.4060202671114]
マルチモーダル大規模言語モデル(MLLM)は、視覚言語タスクを前進させる前例のない能力を示した。
本稿では,MLLMにおける幻覚に対処するためのボトムアップ推論フレームワークを提案する。
本フレームワークは、認識レベル情報と認知レベルコモンセンス知識を検証・統合することにより、視覚とテキストの両方の入力における潜在的な問題に体系的に対処する。
論文 参考訳(メタデータ) (2024-12-15T09:10:46Z) - ANAH-v2: Scaling Analytical Hallucination Annotation of Large Language Models [65.12177400764506]
大規模言語モデル (LLM) は、様々な領域や広範囲のアプリケーションにまたがる、長い形式の質問応答タスクにおいて幻覚を示す。
現在の幻覚検出と緩和データセットはドメインやサイズによって制限されている。
本稿では,幻覚アノテーションデータセットを同時に,段階的にスケールアップする反復的自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T17:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。