論文の概要: Towards a Psychoanalytic Perspective on VLM Behaviour: A First-step Interpretation with Intriguing Observations
- arxiv url: http://arxiv.org/abs/2507.03123v1
- Date: Thu, 03 Jul 2025 19:03:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.587493
- Title: Towards a Psychoanalytic Perspective on VLM Behaviour: A First-step Interpretation with Intriguing Observations
- Title(参考訳): VLM行動の心理分析的視点に向けて--興味ある観察による第1段階の解釈
- Authors: Xiangrui Liu, Man Luo, Agneet Chatterjee, Hua Wei, Yezhou Yang,
- Abstract要約: 幻覚は、視覚言語モデル(VLM)で積極的に研究されている長年の問題である。
既存の研究は、幻覚は技術的な制限や梅毒のバイアスによるもので、後者はモデルがユーザの期待に沿う誤った回答を生み出す傾向があることを意味している。
本稿では,サイコフィナンシー,論理的不整合,新たに同定されたVLMの行動,権威バイアスなど,幻覚行動の分類について紹介する。
- 参考スコア(独自算出の注目度): 31.682344633194383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucination is a long-standing problem that has been actively investigated in Vision-Language Models (VLMs). Existing research commonly attributes hallucinations to technical limitations or sycophancy bias, where the latter means the models tend to generate incorrect answers to align with user expectations. However, these explanations primarily focus on technical or externally driven factors, may have neglected the possibility that hallucination behaviours might mirror cognitive biases observed in human psychology. In this work, we introduce a psychological taxonomy, categorizing VLMs' hallucination behaviours, including sycophancy, logical inconsistency, and a newly identified VLMs behaviour: authority bias. To systematically analyze these behaviours, we design AIpsych, a scalable benchmark that reveals psychological tendencies in model response patterns. Leveraging this benchmark, we investigate how variations in model architecture and parameter size influence model behaviour when responding to strategically manipulated questions. Our experiments reveal that as model size increases, VLMs exhibit stronger sycophantic tendencies but reduced authority bias, suggesting increasing competence but a potential erosion of response integrity. A human subject study further validates our hypotheses and highlights key behavioural differences between VLMs and human respondents. This work suggests a new perspective for understanding hallucination in VLMs and highlights the importance of integrating psychological principles into model evaluation.The benchmark is available at https://github.com/lxrswdd/AIpsych.
- Abstract(参考訳): 幻覚は、視覚言語モデル(VLM)において、長年にわたって研究されてきた問題である。
既存の研究は、幻覚は技術的な制限や梅毒のバイアスによるもので、後者はモデルがユーザの期待に沿う誤った回答を生み出す傾向があることを意味している。
しかしながら、これらの説明は主に技術的な要因や外部の要因に焦点を当てており、幻覚行動が人間の心理学で観察される認知バイアスを反映する可能性を無視していた可能性がある。
本研究では, VLMの幻覚行動の分類として, サイコフィナンシー, 論理的不整合, 新たに同定された VLM の行動, 権威バイアスなどを紹介する。
これらの振る舞いを体系的に分析するために、モデル応答パターンの心理的傾向を明らかにするスケーラブルなベンチマークであるAIpsychを設計する。
本稿では,モデルアーキテクチャの変動とパラメータサイズの変動が,戦略的に操作された質問に応答する際のモデル行動に与える影響について検討する。
実験により, モデルサイズが大きくなるにつれて, VLMはより強いシコファン傾向を示すが, 権威バイアスが小さくなり, 能力向上が期待できるが, 応答整合性が損なわれる可能性が示唆された。
人間の被験者による研究は、私たちの仮説をさらに検証し、VLMと人間の回答者の主な行動の違いを強調します。
この研究は、VLMにおける幻覚を理解するための新しい視点を示し、心理学的原理をモデル評価に統合することの重要性を強調している。
関連論文リスト
- AI Through the Human Lens: Investigating Cognitive Theories in Machine Psychology [0.0]
大規模言語モデル(LLM)が,心理学から確立した4つの枠組みの下で,人間のような認知パターンを示すか否かを検討する。
以上の結果から,これらのモデルがコヒーレントな物語を生み出し,肯定的なフレーミングへの感受性を示し,リバティ/抑圧の懸念に沿った道徳的判断を示し,広範囲な合理化によって誘惑される自己矛盾を示すことが示唆された。
論文 参考訳(メタデータ) (2025-06-22T19:58:19Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Investigating Large Language Models' Perception of Emotion Using
Appraisal Theory [3.0902630634005797]
大規模言語モデル (LLM) は近年大きく進歩し、現在一般に使われている。
本研究では,評価・対処理論のレンズによる感情知覚について検討する。
SCPQ を OpenAI, davinci-003, ChatGPT, GPT-4 の3つの最近の LLM に適用し,評価理論と人体データによる予測結果と比較した。
論文 参考訳(メタデータ) (2023-10-03T16:34:47Z) - Assessing the nature of large language models: A caution against anthropocentrism [0.0]
我々は,標準的,規範的,認知的・人格的尺度を用いて,主に GPT 3.5 の複数の LLM を評価した。
以上の結果から, LLMは人格の発見に反応する能力は興味深いが, 知覚を発達させる可能性が低いことが示唆された。
GPT3.5は、反復観察よりも認知的・人格的尺度に大きな変動を示した。
論文 参考訳(メタデータ) (2023-09-14T12:58:30Z) - Exploring the psychology of LLMs' Moral and Legal Reasoning [0.0]
大規模言語モデル(LLM)は、さまざまな領域にわたるタスクにおいて、専門家レベルのパフォーマンスを示す。
LLMによって提起された倫理的問題と将来のバージョンを整合させる必要性は、アートモデルの現状が道徳的および法的問題にどのように影響するかを知ることが重要である。
我々は,Google の Gemini Pro や Anthropic の Claude 2.1,OpenAI の GPT-4,Meta の Llama 2 Chat 70b を例に,実験文献から8つの研究結果を再現した。
ある実験から別の実験へと人間の反応の一致が変化し、モデルが全体として異なることがわかりました。
論文 参考訳(メタデータ) (2023-08-02T16:36:58Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。