論文の概要: Disentangling the Drivers of LLM Social Conformity: An Uncertainty-Moderated Dual-Process Mechanism
- arxiv url: http://arxiv.org/abs/2508.14918v1
- Date: Sun, 17 Aug 2025 03:53:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.013314
- Title: Disentangling the Drivers of LLM Social Conformity: An Uncertainty-Moderated Dual-Process Mechanism
- Title(参考訳): LLMの社会的整合性の要因の解明--不確実性に修飾されたデュアル・プロシージャのメカニズム
- Authors: Huixin Zhong, Yanan Liu, Qi Cao, Shijin Wang, Zijing Ye, Zimu Wang, Shiyao Zhang,
- Abstract要約: 大規模言語モデル(LLM)は協力チームに統合され、その社会的適合性は重要な懸念事項として浮上している。
ヒトにおいて、適合性は情報的影響(正確性のためのグループキューの合理的使用)または規範的影響(承認のための社会的圧力)から生じる。
本研究では、行動経済学から情報カスケードパラダイムを適応させ、2人のドライバーを定量的に切り離し、適度な効果を調査する。
- 参考スコア(独自算出の注目度): 19.07643218338789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) integrate into collaborative teams, their social conformity -- the tendency to align with majority opinions -- has emerged as a key concern. In humans, conformity arises from informational influence (rational use of group cues for accuracy) or normative influence (social pressure for approval), with uncertainty moderating this balance by shifting from purely analytical to heuristic processing. It remains unclear whether these human psychological mechanisms apply to LLMs. This study adapts the information cascade paradigm from behavioral economics to quantitatively disentangle the two drivers to investigate the moderate effect. We evaluated nine leading LLMs across three decision-making scenarios (medical, legal, investment), manipulating information uncertainty (q = 0.667, 0.55, and 0.70, respectively). Our results indicate that informational influence underpins the models' behavior across all contexts, with accuracy and confidence consistently rising with stronger evidence. However, this foundational mechanism is dramatically modulated by uncertainty. In low-to-medium uncertainty scenarios, this informational process is expressed as a conservative strategy, where LLMs systematically underweight all evidence sources. In contrast, high uncertainty triggers a critical shift: while still processing information, the models additionally exhibit a normative-like amplification, causing them to overweight public signals (beta > 1.55 vs. private beta = 0.81).
- Abstract(参考訳): 大規模言語モデル(LLM)が協力チームに統合されるにつれ、彼らの社会的適合性(多数意見と整合する傾向)が重要な関心事となっている。
ヒトでは、整合性は情報的影響(正確性のためのグループキューの合理的使用)や規範的影響(承認のための社会的圧力)から生じ、純粋に解析的な処理からヒューリスティックな処理へとシフトすることでこのバランスを緩和する不確実性がある。
これらの人間の心理的メカニズムがLSMに適用されるかどうかは不明である。
本研究では、行動経済学から情報カスケードパラダイムを適応させ、2人のドライバーを定量的に切り離し、適度な効果を調査する。
意思決定シナリオ(医療,法,投資),情報不確実性(q=0.667,0.55,0.70)の9つの主要なLCMを評価した。
以上の結果から,情報的影響はあらゆる文脈におけるモデル行動の基盤となり,精度と信頼性はより強い証拠とともに一貫して上昇していることが明らかとなった。
しかし、この基礎メカニズムは不確実性によって劇的に変調される。
低レベルの不確実性シナリオでは、この情報処理は保守的な戦略として表現され、LLMは体系的にすべての証拠源を過小評価する。
対照的に、高い不確実性は重要なシフトを引き起こす: 情報を処理する間、モデルは規範的な増幅も同時に示し、それらは過度な公開信号(ベータ > 1.55 vs. private beta = 0.81)を引き起こす。
関連論文リスト
- Persistent Instability in LLM's Personality Measurements: Effects of Scale, Reasoning, and Conversation History [7.58175460763641]
400B+モデルでさえ、相当な応答変動を示す。
連鎖推論、詳細なペルソナ指導、会話履歴の含意など、行動の安定化を期待する介入は、パラドックス的に変動を増大させる。
予測可能な行動を必要とする安全クリティカルなアプリケーションに対しては,人格に基づくアライメント戦略が根本的に不十分である可能性が示唆された。
論文 参考訳(メタデータ) (2025-08-06T19:11:33Z) - FairReason: Balancing Reasoning and Social Bias in MLLMs [50.618158642714505]
MLLM(Multimodal Large Language Models)は、様々なタスクやモダリティにおいて、最先端の成果をすでに達成している。
近年の研究では、推論能力をさらに推し進めるために、先進的なプロンプトスキームと後続の微調整を探求している。
論文 参考訳(メタデータ) (2025-07-30T19:57:22Z) - Data Fusion for Partial Identification of Causal Effects [62.56890808004615]
本稿では,研究者が重要な疑問に答えられるような,新しい部分的識別フレームワークを提案する。
因果効果は肯定的か否定的か?
本研究の枠組みをSTARプロジェクトに適用し,第3級の標準試験性能に対する教室規模の影響について検討する。
論文 参考訳(メタデータ) (2025-05-30T07:13:01Z) - Mind the (Belief) Gap: Group Identity in the World of LLMs [22.96432452893247]
社会的バイアスと信念駆動行動は、いくつかのタスクにおける大規模言語モデル(LLM)の決定に大きな影響を与える可能性がある。
本稿では,社会的相互作用と嗜好を形成する上で重要な役割を果たす古典的集団心理学理論である,信念の一致をシミュレートするマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-03T19:50:52Z) - Metacognitive Myopia in Large Language Models [0.0]
大規模言語モデル(LLM)は、文化的に固有のステレオタイプ、クラウドの道徳的判断、あるいは多数派の肯定的な評価を強化する潜在的に有害なバイアスを示す。
認知・生態的枠組みとしてメタ認知ミオピアを提案する。
我々の理論的枠組みは, メタ認知, 監視, 制御の2つの要素が欠如していることが, メタ認知性ミオピアの5つの症状を引き起こすことを示唆している。
論文 参考訳(メタデータ) (2024-08-10T14:43:57Z) - Decision-Making Behavior Evaluation Framework for LLMs under Uncertain Context [5.361970694197912]
本稿では,大規模言語モデル(LLM)の意思決定行動を評価するための行動経済学に基づく枠組みを提案する。
本稿では,ChatGPT-4.0-Turbo,Claude-3-Opus,Gemini-1.0-proの3つの商用LCMにおけるリスク嗜好,確率重み付け,損失回避の程度を推定する。
以上の結果から,LSMはリスク回避や損失回避といった人間に類似したパターンを呈し,その傾向は小さすぎることが示唆された。
論文 参考訳(メタデータ) (2024-06-10T02:14:19Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。