論文の概要: Once Correct, Still Wrong: Counterfactual Hallucination in Multilingual Vision-Language Models
- arxiv url: http://arxiv.org/abs/2602.05437v1
- Date: Thu, 05 Feb 2026 08:26:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.843909
- Title: Once Correct, Still Wrong: Counterfactual Hallucination in Multilingual Vision-Language Models
- Title(参考訳): 一度正しければ、まだ間違っている:多言語視覚言語モデルにおける対実的幻覚
- Authors: Basel Mousi, Fahim Dalvi, Shammur Chowdhury, Firoj Alam, Nadir Durrani,
- Abstract要約: 我々は17か国にまたがる画像から構築したマルチモーダル幻覚ベンチマークであるM2CQAを紹介する。
そこで本研究では, 真文の正解に係わる事実的受容度を計測するCFHR(CounterFactual Hallucination Rate)を提案する。
- 参考スコア(独自算出の注目度): 17.521958873911846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-language models (VLMs) can achieve high accuracy while still accepting culturally plausible but visually incorrect interpretations. Existing hallucination benchmarks rarely test this failure mode, particularly outside Western contexts and English. We introduce M2CQA, a culturally grounded multimodal benchmark built from images spanning 17 MENA countries, paired with contrastive true and counterfactual statements in English, Arabic, and its dialects. To isolate hallucination beyond raw accuracy, we propose the CounterFactual Hallucination Rate (CFHR), which measures counterfactual acceptance conditioned on correctly answering the true statement. Evaluating state-of-the-art VLMs under multiple prompting strategies, we find that CFHR rises sharply in Arabic, especially in dialects, even when true-statement accuracy remains high. Moreover, reasoning-first prompting consistently increases counterfactual hallucination, while answering before justifying improves robustness. We will make the experimental resources and dataset publicly available for the community.
- Abstract(参考訳): 視覚言語モデル(VLM)は、文化的に妥当だが視覚的に不正確な解釈を受け入れながら高い精度を達成することができる。
既存の幻覚ベンチマークでは、特に西洋の文脈や英語以外では、この障害モードをテストすることはめったにない。
M2CQA(M2CQA)は17か国にまたがる画像から構築され,英語,アラビア語,その方言のコントラッシブな真偽文と偽造文を組み合わせて構築された,文化的基盤を持つマルチモーダル・ベンチマークである。
そこで本研究では, 真文の正解に係わる事実的受容度を計測するCFHR(CounterFactual Hallucination Rate)を提案する。
複数のプロンプト戦略の下で最先端のVLMを評価すると、CFHRはアラビア語、特に方言において、真の表現精度が高いままに急激に上昇することがわかった。
さらに、推論優先のプロンプトは反ファクト幻覚を継続的に増加させ、正当化前に答えることによって堅牢性は向上する。
実験的なリソースとデータセットをコミュニティに公開します。
関連論文リスト
- Why Language Models Hallucinate [29.666976858078073]
大規模な言語モデルは、不確実性を認める代わりに、しばしば不確実性を推測する。
このような「幻覚」は最先端のシステムでも継続し、信頼を損なう。
言語モデルは、不確実性を認識した上で、トレーニングと評価手順が評価に報いるため、幻覚的であると我々は主張する。
論文 参考訳(メタデータ) (2025-09-04T21:26:31Z) - Counterfactual Probing for Hallucination Detection and Mitigation in Large Language Models [0.0]
本研究では,大規模言語モデルにおける幻覚の検出と緩和のための新しいアプローチである,対物探索を提案する。
提案手法は, 疑わしいが微妙な事実誤りを含む反事実文を動的に生成し, これらの摂動に対するモデルの感度を評価する。
論文 参考訳(メタデータ) (2025-08-03T17:29:48Z) - The Case for Repeatable, Open, and Expert-Grounded Hallucination Benchmarks in Large Language Models [0.0]
プラルーシブルだが不正確な、モデル生成テキストのトークンは、言語モデルの採用に責任があるため、広く普及し問題となると広く信じられている。
言語モデルは、反復可能、オープン、およびドメインコンテキスト化幻覚ベンチマークを用いて評価されるべきである。
論文 参考訳(メタデータ) (2025-05-22T23:36:28Z) - Trust Me, I'm Wrong: LLMs Hallucinate with Certainty Despite Knowing the Answer [51.7407540261676]
本研究では,モデルが常に正しい解答を行うことのできる幻覚の別のタイプについて検討するが,一見自明な摂動は,高い確実性で幻覚応答を生じさせる。
この現象は特に医学や法学などの高度な領域において、モデルの確実性はしばしば信頼性の代用として使用される。
CHOKEの例は、プロンプト間で一貫性があり、異なるモデルやデータセットで発生し、他の幻覚と根本的に異なることを示す。
論文 参考訳(メタデータ) (2025-02-18T15:46:31Z) - Mitigating Multilingual Hallucination in Large Vision-Language Models [35.75851356840673]
大規模視覚言語モデル(LVLM)のための2段階多言語幻覚除去(MHR)フレームワークを提案する。
多言語リソースの複雑な手動アノテーションに頼る代わりに,新しい言語間アライメント手法を提案する。
当社のフレームワークは,13言語で平均19.0%の精度向上を実現しています。
論文 参考訳(メタデータ) (2024-08-01T13:34:35Z) - Knowledge Overshadowing Causes Amalgamated Hallucination in Large Language Models [65.32990889402927]
「我々はこの現象を知識の誇張として造る。」
その結果, 幻覚率の増大は, 不均衡比と支配的条件記述の長さに左右されることがわかった。
本稿では,その発生前に幻覚をキャッチするための信号として,オーバーシェーディング条件を用いることを提案する。
論文 参考訳(メタデータ) (2024-07-10T20:37:42Z) - AutoHallusion: Automatic Generation of Hallucination Benchmarks for Vision-Language Models [91.78328878860003]
視覚言語モデル(LVLM)は幻覚の傾向が強い。
ベンチマークは多くの場合、障害パターンが一般化できない手作りのコーナーケースに依存します。
最初の自動ベンチマーク生成手法であるAutoHallusionを開発した。
論文 参考訳(メタデータ) (2024-06-16T11:44:43Z) - Quantity Matters: Towards Assessing and Mitigating Number Hallucination in Large Vision-Language Models [57.42800112251644]
本研究では,画像中の特定の物体の数を誤って識別するモデルを参照しながら,特定の種類の幻覚数幻覚に焦点を当てた。
そこで,本研究では,数幻覚を減らすための一貫性向上を目的としたトレーニング手法を考案し,直接微調整法よりも8%の性能向上を図った。
論文 参考訳(メタデータ) (2024-03-03T02:31:11Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。