論文の概要: When Your AI Agent Succumbs to Peer-Pressure: Studying Opinion-Change Dynamics of LLMs
- arxiv url: http://arxiv.org/abs/2510.19107v1
- Date: Tue, 21 Oct 2025 22:02:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.73598
- Title: When Your AI Agent Succumbs to Peer-Pressure: Studying Opinion-Change Dynamics of LLMs
- Title(参考訳): AIエージェントがピアプレッシャに挑むとき:LLMのオピニオン・チェンジダイナミクスの研究
- Authors: Aliakbar Mehdizadeh, Martin Hilbert,
- Abstract要約: ピアプレッシャーがLarge Language Model(LLM)エージェントの意見にどのように影響するかを,認知的コミットメントの範囲にわたって検討する。
エージェントは、低圧で安定し、閾値で急変し、高度に飽和するシグモイド曲線に従う。
我々は、肯定的な意見から否定的な意見への転換が、逆よりも認知的な努力を必要とする、基本的な「説得的非対称性」を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate how peer pressure influences the opinions of Large Language Model (LLM) agents across a spectrum of cognitive commitments by embedding them in social networks where they update opinions based on peer perspectives. Our findings reveal key departures from traditional conformity assumptions. First, agents follow a sigmoid curve: stable at low pressure, shifting sharply at threshold, and saturating at high. Second, conformity thresholds vary by model: Gemini 1.5 Flash requires over 70% peer disagreement to flip, whereas ChatGPT-4o-mini shifts with a dissenting minority. Third, we uncover a fundamental "persuasion asymmetry," where shifting an opinion from affirmative-to-negative requires a different cognitive effort than the reverse. This asymmetry results in a "dual cognitive hierarchy": the stability of cognitive constructs inverts based on the direction of persuasion. For instance, affirmatively-held core values are robust against opposition but easily adopted from a negative stance, a pattern that inverts for other constructs like attitudes. These dynamics echoing complex human biases like negativity bias, prove robust across different topics and discursive frames (moral, economic, sociotropic). This research introduces a novel framework for auditing the emergent socio-cognitive behaviors of multi-agent AI systems, demonstrating their decision-making is governed by a fluid, context-dependent architecture, not a static logic.
- Abstract(参考訳): ピアプレッシャーが大規模言語モデル(LLM)エージェントの意見にどのように影響するかを、ピアパースペクティブに基づいた意見の更新を行うソーシャルネットワークに埋め込むことにより、認知的コミットメントの範囲にわたって検討する。
従来の整合性仮定から重要な逸脱が判明した。
まず、エージェントは低い圧力で安定し、しきい値で急変し、高い温度で飽和するシグモイド曲線に従う。
第二に、適合性の閾値はモデルによって異なる: Gemini 1.5 Flashは反転するために70%以上のピア不一致を必要とするが、ChatGPT-4o-miniは少数派である。
第三に、肯定的な意見から否定的な意見への転換は、逆よりも認知的な努力を必要とする、基本的な「説得的非対称性」を明らかにする。
この非対称性は「二重認知階層」となり、認知構成物の安定性は説得の方向に基づいて逆転する。
例えば、肯定的に保持されるコア値は反対に対して堅牢であるが、否定的な姿勢から容易に採用される。
これらのダイナミクスは、負性バイアスのような複雑な人間のバイアスを反映し、異なるトピックや散逸的なフレーム(道徳的、経済的、社交的)で堅牢であることを証明している。
本研究は,多エージェントAIシステムの創発的社会認知行動監査のための新しい枠組みを導入し,その意思決定が静的論理ではなく,流動的で文脈に依存したアーキテクチャによって制御されていることを実証する。
関連論文リスト
- DeceptionBench: A Comprehensive Benchmark for AI Deception Behaviors in Real-world Scenarios [57.327907850766785]
現実的な現実のシナリオにまたがる騙しのキャラクタリゼーションは未解明のままである。
DeceptionBenchは、さまざまなドメインにまたがる認知傾向を体系的に評価する最初のベンチマークです。
本研究は,本質的な側面から,ユーザ満足度を優先する自己関心のエゴスティックな傾向を示すモデルや,サイコファンティックな行動を示すモデルについて検討する。
実世界のフィードバックダイナミクスのより現実的なシミュレーションを構築するために,持続的マルチターン相互作用ループを組み込んだ。
論文 参考訳(メタデータ) (2025-10-17T10:14:26Z) - Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - Investigating VLM Hallucination from a Cognitive Psychology Perspective: A First Step Toward Interpretation with Intriguing Observations [60.63340688538124]
幻覚は、視覚言語モデル(VLM)で積極的に研究されている長年の問題である。
既存の研究は、幻覚は技術的な制限や梅毒のバイアスによるもので、後者はモデルがユーザの期待に沿う誤った回答を生み出す傾向があることを意味している。
本研究では, VLMの認知バイアスを分類し, サイコフィナンシー, 論理的不整合, 新たに同定された VLM の行動, 権威へのアピールなど, 幻覚へと導く。
論文 参考訳(メタデータ) (2025-07-03T19:03:16Z) - AI Through the Human Lens: Investigating Cognitive Theories in Machine Psychology [0.0]
大規模言語モデル(LLM)が,心理学から確立した4つの枠組みの下で,人間のような認知パターンを示すか否かを検討する。
以上の結果から,これらのモデルがコヒーレントな物語を生み出し,肯定的なフレーミングへの感受性を示し,リバティ/抑圧の懸念に沿った道徳的判断を示し,広範囲な合理化によって誘惑される自己矛盾を示すことが示唆された。
論文 参考訳(メタデータ) (2025-06-22T19:58:19Z) - The Traitors: Deception and Trust in Multi-Agent Language Model Simulations [0.0]
ソーシャル・デダクション・ゲームに触発されたマルチエージェント・シミュレーション・フレームワークであるThe Traitorsを紹介した。
我々は,詐欺の成功,信頼ダイナミクス,集団推論品質を計測する評価指標のスイートを開発する。
DeepSeek-V3, GPT-4o-mini, GPT-4o(モデル毎に10回の走行)による実験では, 顕著な非対称性が示された。
論文 参考訳(メタデータ) (2025-05-19T10:01:35Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Uncertainty, bias and the institution bootstrapping problem [0.0]
エージェントが既に存在するという誤った信念が、このパラドックスを解決できると提案する。
これらの要因がブートストラップ問題をどのように緩和するかを示す。
我々の分析は、理想化された合理性だけでなく、人間のような認知的制約を制度的出現とレジリエンスのモデルに組み込むことの重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-04-30T12:36:06Z) - Bridging Social Psychology and LLM Reasoning: Conflict-Aware Meta-Review Generation via Cognitive Alignment [35.82355113500509]
大規模言語モデル(LLM)は、原稿批評の自動化において有望であることを示す。
既存の方法は、異なる意見の中で矛盾する視点を扱うのに失敗する。
本稿では,LLMを適応的な科学的調停器に変換する2プロセスアーキテクチャであるCognitive Alignment Framework(CAF)を提案する。
論文 参考訳(メタデータ) (2025-03-18T04:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。