論文の概要: NoLan: Mitigating Object Hallucinations in Large Vision-Language Models via Dynamic Suppression of Language Priors
- arxiv url: http://arxiv.org/abs/2602.22144v1
- Date: Wed, 25 Feb 2026 17:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.934973
- Title: NoLan: Mitigating Object Hallucinations in Large Vision-Language Models via Dynamic Suppression of Language Priors
- Title(参考訳): NoLan: 言語先行の動的抑制による大規模視覚言語モデルにおける物体の幻覚の緩和
- Authors: Lingfeng Ren, Weihao Yu, Runpeng Yu, Xinchao Wang,
- Abstract要約: 言語先行を動的に抑制することで出力分布を改良するNo-Language-Hallucination Decoding, NoLanを提案する。
NoLanはPOPEを大幅に改善し、LLaVA-1.5 7BとQwen-VL 7Bの精度を最大6.45と7.21まで向上させた。
- 参考スコア(独自算出の注目度): 54.688164483265496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object hallucination is a critical issue in Large Vision-Language Models (LVLMs), where outputs include objects that do not appear in the input image. A natural question arises from this phenomenon: Which component of the LVLM pipeline primarily contributes to object hallucinations? The vision encoder to perceive visual information, or the language decoder to generate text responses? In this work, we strive to answer this question through designing a systematic experiment to analyze the roles of the vision encoder and the language decoder in hallucination generation. Our observations reveal that object hallucinations are predominantly associated with the strong priors from the language decoder. Based on this finding, we propose a simple and training-free framework, No-Language-Hallucination Decoding, NoLan, which refines the output distribution by dynamically suppressing language priors, modulated based on the output distribution difference between multimodal and text-only inputs. Experimental results demonstrate that NoLan effectively reduces object hallucinations across various LVLMs on different tasks. For instance, NoLan achieves substantial improvements on POPE, enhancing the accuracy of LLaVA-1.5 7B and Qwen-VL 7B by up to 6.45 and 7.21, respectively. The code is publicly available at: https://github.com/lingfengren/NoLan.
- Abstract(参考訳): オブジェクト幻覚はLVLM(Large Vision-Language Models)において重要な問題であり、出力には入力画像に現れないオブジェクトが含まれる。
LVLMパイプラインのどのコンポーネントが主にオブジェクト幻覚に寄与するのか?
視覚情報を認識する視覚エンコーダ、あるいはテキスト応答を生成する言語デコーダ?
本研究では,幻覚生成における視覚エンコーダと言語デコーダの役割を分析するための体系的な実験を設計することで,この問題に対処する。
観察の結果,対象の幻覚は言語デコーダの強い先行性に大きく関連していることが明らかとなった。
そこで本研究では,マルチモーダル入力とテキストオンリー入力の出力分布差に基づいて変調した,動的に言語先行を抑圧することで出力分布を洗練させる,シンプルでトレーニングのないNo-Language-Hallucination Decoding, NoLanを提案する。
実験結果から,NoLanは様々なLVLMに対して,様々な作業における物体幻覚を効果的に低減することが示された。
例えば、NoLanはPOPEを大幅に改善し、LLaVA-1.5 7BとQwen-VL 7Bの精度を最大6.45と7.21まで向上させた。
コードは、https://github.com/lingfengren/NoLan.comで公開されている。
関連論文リスト
- Residual Decoding: Mitigating Hallucinations in Large Vision-Language Models via History-Aware Residual Guidance [31.7541034166056]
LVLM(Large Vision-Language Models)は、画像テキスト入力から効果的に推論し、様々なマルチモーダルタスクでうまく機能する。
彼らは言語の先行性に影響され、しばしば幻覚を生じさせる。
この問題に対処するためにResidual Decoding (ResDec)を提案する。
論文 参考訳(メタデータ) (2026-02-01T06:12:05Z) - Watch Closely: Mitigating Object Hallucinations in Large Vision-Language Models with Disentangled Decoding [22.560247372346435]
LVLM(Large Vision-Language Models)は、視覚と言語の間のギャップを埋めるモデルである。
これらのモデルは、特定のオブジェクトを正確に識別することができないことが多く、流動的に見えるが視覚的内容に対応しないテキスト生成につながる。
本稿では,訓練を必要としないHalucination Disentangled Decoding(HDD)手法を提案する。
論文 参考訳(メタデータ) (2025-12-22T06:20:53Z) - Detecting and Mitigating Hallucination in Large Vision Language Models via Fine-Grained AI Feedback [40.930238150365795]
我々は,LVLM(Large Vision Language Models)における幻覚の検出と緩和について,きめ細かいAIフィードバックを用いて提案する。
プロプライエタリモデルによる小型幻覚アノテーションデータセットを生成する。
そこで本研究では,幻覚緩和モデルの訓練のための選好データセットを自動構築する検出テーマ書き換えパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:46:10Z) - Analyzing and Mitigating Object Hallucination in Large Vision-Language Models [110.12460299261531]
大規模視覚言語モデル(LVLM)は、人間の言語で視覚情報を理解する際、顕著な能力を示した。
LVLMは依然として物体幻覚に悩まされており、画像に実際に存在しない物体を含む記述を生成するという問題である。
そこで我々は,LVLMの幻覚を再現するアルゴリズム LVLM Hallucination Revisor (LURE) を提案する。
論文 参考訳(メタデータ) (2023-10-01T18:10:53Z) - Evaluating Object Hallucination in Large Vision-Language Models [122.40337582958453]
本研究は,大規模視覚言語モデル(LVLM)の物体幻覚に関する最初の体系的研究である。
LVLMは、記述中の対象画像と矛盾しないオブジェクトを生成する傾向がある。
対象の幻覚を評価するために,POPEと呼ばれるポーリングに基づくクエリ手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T16:34:01Z) - Plausible May Not Be Faithful: Probing Object Hallucination in
Vision-Language Pre-training [66.0036211069513]
大規模視覚言語事前学習モデルは、テキストを生成する際に、存在しない視覚オブジェクトを幻覚させる傾向がある。
標準メトリクスでより良いスコアを得るモデルは、オブジェクトをより頻繁に幻覚させる可能性があることを示す。
驚いたことに、パッチベースの機能が最も良く、より小さなパッチ解決は、オブジェクト幻覚の非自明な減少をもたらす。
論文 参考訳(メタデータ) (2022-10-14T10:27:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。