論文の概要: Spiral of Silence in Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2510.02360v2
- Date: Wed, 08 Oct 2025 01:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 14:21:18.182653
- Title: Spiral of Silence in Large Language Model Agents
- Title(参考訳): 大規模言語モデルエージェントにおける沈黙のスパイラル
- Authors: Mingze Zhong, Meng Fang, Zijing Shi, Yuxuan Huang, Shunfeng Zheng, Yali Du, Ling Chen, Jun Wang,
- Abstract要約: スピラル・オブ・サイレンス(SoS)理論では、少数派の見解を持つ個人は社会的孤立を恐れて発言することをしばしば控えている。
SoSライクなダイナミクスは、大きな言語モデルで純粋に統計的な言語生成から生まれるのか?
本研究では,「歴史」と「ペルソナ」の信号の可利用性を体系的に変化させる4つの制御条件について考察する。
- 参考スコア(独自算出の注目度): 44.98734791415891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Spiral of Silence (SoS) theory holds that individuals with minority views often refrain from speaking out for fear of social isolation, enabling majority positions to dominate public discourse. When the 'agents' are large language models (LLMs), however, the classical psychological explanation is not directly applicable, since SoS was developed for human societies. This raises a central question: can SoS-like dynamics nevertheless emerge from purely statistical language generation in LLM collectives? We propose an evaluation framework for examining SoS in LLM agents. Specifically, we consider four controlled conditions that systematically vary the availability of 'History' and 'Persona' signals. Opinion dynamics are assessed using trend tests such as Mann-Kendall and Spearman's rank, along with concentration measures including kurtosis and interquartile range. Experiments across open-source and closed-source models show that history and persona together produce strong majority dominance and replicate SoS patterns; history signals alone induce strong anchoring; and persona signals alone foster diverse but uncorrelated opinions, indicating that without historical anchoring, SoS dynamics cannot emerge. The work bridges computational sociology and responsible AI design, highlighting the need to monitor and mitigate emergent conformity in LLM-agent systems.
- Abstract(参考訳): 沈黙のスパイラル(Spiral of Silence, SoS)理論は、少数派の見解を持つ個人は社会的孤立を恐れて発言することをしばしば控え、大多数の立場が世論を支配できると主張している。
しかし,「エージェント」が大きな言語モデル(LLM)である場合,人間社会向けにSOSが開発されたため,古典的な心理的説明は直接適用されない。
にもかかわらず、LSM集団における純粋に統計的言語生成からSoSライクなダイナミクスが生まれるのか?
LLMエージェントのSOS評価フレームワークを提案する。
具体的には、「歴史」と「ペルソナ」の信号の可用性を体系的に変化させる4つの制御条件について考察する。
マン・ケンドールやスピアマンのランクなどの傾向試験や、クルトシスや石英間距離といった濃度測定を用いて、オピニオンダイナミクスを評価する。
オープンソースモデルとクローズドソースモデルによる実験では、歴史とペルソナが共に強力な多数派優位性を生み出し、SoSパターンを再現し、履歴信号だけでは強力なアンカーを誘導し、ペルソナ信号だけでは、歴史的アンカーなしではSoSのダイナミクスが出現しないことを示している。
この作業は計算社会学と責任あるAI設計を橋渡しし、LLMエージェントシステムにおける創発的適合性を監視し緩和する必要性を強調している。
関連論文リスト
- To Mask or to Mirror: Human-AI Alignment in Collective Reasoning [8.009150856358755]
大規模言語モデル(LLM)は、集団的な意思決定をモデル化し、拡張するためにますます使われている。
集合的アライメントを評価するための実証的枠組みを提案する。
集合的推論における人間とAIのアライメントは、文脈、手がかり、モデル固有の帰納バイアスに依存することを実証的に実証する。
論文 参考訳(メタデータ) (2025-10-02T11:41:30Z) - Too Human to Model:The Uncanny Valley of LLMs in Social Simulation -- When Generative Language Agents Misalign with Modelling Principles [0.0]
大規模言語モデル(LLM)は、社会シミュレーションにおいてエージェントを構築するためにますます使われてきている。
我々は、LLMエージェントは表現力があり、詳細で難解であり、抽象、単純化、解釈可能性と整合することができないと論じる。
論文 参考訳(メタデータ) (2025-07-08T18:02:36Z) - Generative Exaggeration in LLM Social Agents: Consistency, Bias, and Toxicity [2.3997896447030653]
ソーシャルメディア上での政治談話のシミュレーションにおいて,Large Language Models (LLM) がどのように振る舞うかを検討する。
我々は、実ユーザ1,186名に基づくLCMエージェントを構築し、制御された条件下で政治的に健全なツイートに返信するよう促す。
よりリッチな文脈化によって内部の一貫性が向上するだけでなく、分極、スタイリングされた信号、有害な言語も増幅される。
論文 参考訳(メタデータ) (2025-07-01T10:54:51Z) - If an LLM Were a Character, Would It Know Its Own Story? Evaluating Lifelong Learning in LLMs [55.8331366739144]
大規模言語モデル(LLM)における生涯学習評価のためのベンチマークであるLIFESTATE-BENCHを紹介する。
我々の事実チェック評価は、パラメトリックと非パラメトリックの両方のアプローチで、モデルの自己認識、エピソードメモリ検索、関係追跡を探索する。
論文 参考訳(メタデータ) (2025-03-30T16:50:57Z) - Can LLMs Simulate Social Media Engagement? A Study on Action-Guided Response Generation [51.44040615856536]
本稿では、行動誘導応答生成によるソーシャルメディアのエンゲージメントをシミュレートする大規模言語モデルの能力について分析する。
GPT-4o-mini,O1-mini,DeepSeek-R1をソーシャルメディアエンゲージメントシミュレーションで評価した。
論文 参考訳(メタデータ) (2025-02-17T17:43:08Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Understanding and Mitigating Bottlenecks of State Space Models through the Lens of Recency and Over-smoothing [56.66469232740998]
構造化状態空間モデル (Structured State Space Models, SSMs) は, 強い相対バイアスによって本質的に制限されていることを示す。
このバイアスにより、モデルが遠方の情報を思い出す能力が損なわれ、堅牢性の問題がもたらされる。
本研究では, 状態遷移行列の2つのチャネルをSSMで分極し, それぞれ0と1に設定し, 電流バイアスと過平滑化に同時に対処することを提案する。
論文 参考訳(メタデータ) (2024-12-31T22:06:39Z) - Transforming Agency. On the mode of existence of Large Language Models [0.0]
本稿では,ChatGPTのような大規模言語モデル(LLM)のオントロジ的特徴について検討する。
また,ChatGPTは,言語オートマトンやインターロケータ,言語オートマトンとして特徴付けられるべきだと論じる。
論文 参考訳(メタデータ) (2024-07-15T14:01:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。