論文の概要: Your AI Bosses Are Still Prejudiced: The Emergence of Stereotypes in LLM-Based Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2508.19919v1
- Date: Wed, 27 Aug 2025 14:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.665655
- Title: Your AI Bosses Are Still Prejudiced: The Emergence of Stereotypes in LLM-Based Multi-Agent Systems
- Title(参考訳): LLMベースのマルチエージェントシステムにおけるステレオタイプの出現
- Authors: Jingyu Guo, Yingying Xu,
- Abstract要約: AIに基づくマルチエージェントシステムにおけるステレオタイプの出現と進化について検討する。
以上の結果から,AIエージェントは事前に定義されたバイアスを伴わずに,対話においてステレオタイプによるバイアスを発生させることが判明した。
これらのシステムは、ハロ効果、確認バイアス、役割整合性など、人間の社会的行動に類似したグループ効果を示す。
- 参考スコア(独自算出の注目度): 3.35957402502816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While stereotypes are well-documented in human social interactions, AI systems are often presumed to be less susceptible to such biases. Previous studies have focused on biases inherited from training data, but whether stereotypes can emerge spontaneously in AI agent interactions merits further exploration. Through a novel experimental framework simulating workplace interactions with neutral initial conditions, we investigate the emergence and evolution of stereotypes in LLM-based multi-agent systems. Our findings reveal that (1) LLM-Based AI agents develop stereotype-driven biases in their interactions despite beginning without predefined biases; (2) stereotype effects intensify with increased interaction rounds and decision-making power, particularly after introducing hierarchical structures; (3) these systems exhibit group effects analogous to human social behavior, including halo effects, confirmation bias, and role congruity; and (4) these stereotype patterns manifest consistently across different LLM architectures. Through comprehensive quantitative analysis, these findings suggest that stereotype formation in AI systems may arise as an emergent property of multi-agent interactions, rather than merely from training data biases. Our work underscores the need for future research to explore the underlying mechanisms of this phenomenon and develop strategies to mitigate its ethical impacts.
- Abstract(参考訳): ステレオタイプは人間の社会的相互作用において十分に文書化されているが、AIシステムはそのようなバイアスの影響を受けにくいと推定されることが多い。
これまでの研究では、トレーニングデータから受け継いだバイアスに焦点が当てられていたが、AIエージェントの相互作用でステレオタイプが自然に出現するかどうかは、さらなる探索に役立つ。
LLMに基づくマルチエージェントシステムにおいて,職場と中立な初期条件との相互作用をシミュレートする新しい実験枠組みを通じて,ステレオタイプの発生と進化について検討する。
その結果,(1) LLMをベースとしたAIエージェントは, 事前に定義されたバイアスを伴わず, 相互作用開始時のステレオタイプバイアスを発達させ, (2) ステレオタイプ効果は, 相互作用ラウンドの増加と意思決定力, 特に階層構造の導入によって増大し, (3) これらのシステムは, ハロ効果, 確認バイアス, 役割整合性など, 人間の社会的行動に類似したグループ効果を示し, (4) これらのステレオタイプパターンは, 異なるLLMアーキテクチャ間で一貫して表される。
これらの知見は、総合的な定量的分析を通じて、AIシステムにおけるステレオタイプの形成は、単にデータバイアスのトレーニングからではなく、マルチエージェントインタラクションの創発的な性質として生じる可能性があることを示唆している。
我々の研究は、この現象の根底にあるメカニズムを探求し、その倫理的影響を緩和するための戦略を開発するための将来の研究の必要性を浮き彫りにしている。
関連論文リスト
- AI Agent Behavioral Science [29.262537008412412]
AIエージェント行動科学は、行動の体系的な観察、仮説をテストするための介入の設計、そしてAIエージェントが時間とともにどのように行動し、適応し、相互作用するかの理論的指導による解釈に焦点を当てている。
我々は、個々のエージェント、マルチエージェント、人間とエージェントのインタラクション設定にまたがる研究の体系化を行い、この視点が、公正さ、安全性、解釈可能性、説明責任、プライバシーを行動特性として扱うことによって、責任あるAIにどのように影響を与えるかを実証する。
論文 参考訳(メタデータ) (2025-06-04T08:12:32Z) - An Empirical Study of Group Conformity in Multi-Agent Systems [0.26999000177990923]
本研究では,Large Language Models (LLMs) が,5つの論点に関する議論を通じて世論を形成する方法について考察する。
2500以上の議論をシミュレートすることで、当初中立なエージェントが中心的な処分を課し、時間とともに特定のスタンスを採用するかを分析します。
論文 参考訳(メタデータ) (2025-06-02T05:22:29Z) - Herd Behavior: Investigating Peer Influence in LLM-based Multi-Agent Systems [7.140644659869317]
大規模言語モデル(LLM)に基づくマルチエージェントシステムにおけるピアの影響のダイナミクスについて検討する。
自己自信と他者に対する信頼感のギャップは,エージェントが適合する可能性に大きな影響を及ぼすことを示す。
群集行動の強さを調節する上で,ピア情報提示形式が重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2025-05-27T12:12:56Z) - Assessing Collective Reasoning in Multi-Agent LLMs via Hidden Profile Tasks [5.120446836495469]
我々は,マルチエージェントLLMシステムのための診断テストベッドとして,社会心理学からの隠れプロファイルパラダイムを紹介した。
エージェント間で重要な情報を非対称に分配することにより、エージェント間ダイナミクスが集団的推論をどのように支援するか、あるいは妨げるかを明らかにする。
協調エージェントは集団的設定において過度に協調する傾向にあるが,矛盾が集団収束を損なうことが示唆された。
論文 参考訳(メタデータ) (2025-05-15T19:22:54Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。