論文の概要: The Social Cost of Intelligence: Emergence, Propagation, and Amplification of Stereotypical Bias in Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2510.10943v1
- Date: Mon, 13 Oct 2025 02:56:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.164112
- Title: The Social Cost of Intelligence: Emergence, Propagation, and Amplification of Stereotypical Bias in Multi-Agent Systems
- Title(参考訳): 知能の社会的コスト:マルチエージェントシステムにおけるステレオタイプバイアスの創発・伝播・増幅
- Authors: Thi-Nhung Nguyen, Linhao Luo, Thuy-Trang Vu, Dinh Phung,
- Abstract要約: 大規模言語モデル(LLMs)におけるバイアスは、社会集団全体でのステレオタイピングと不公平な扱いにおいて、引き続き永続的な課題である。
内部特殊化, 基礎となるLCM, エージェント間通信プロトコルが, バイアス堅牢性, 伝搬, 増幅に与える影響について検討した。
以上の結果から,マルチエージェントLPMシステムにおける公平性とレジリエンスを規定する重要な要因が示唆された。
- 参考スコア(独自算出の注目度): 20.359327253718718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias in large language models (LLMs) remains a persistent challenge, manifesting in stereotyping and unfair treatment across social groups. While prior research has primarily focused on individual models, the rise of multi-agent systems (MAS), where multiple LLMs collaborate and communicate, introduces new and largely unexplored dynamics in bias emergence and propagation. In this work, we present a comprehensive study of stereotypical bias in MAS, examining how internal specialization, underlying LLMs and inter-agent communication protocols influence bias robustness, propagation, and amplification. We simulate social contexts where agents represent different social groups and evaluate system behavior under various interaction and adversarial scenarios. Experiments on three bias benchmarks reveal that MAS are generally less robust than single-agent systems, with bias often emerging early through in-group favoritism. However, cooperative and debate-based communication can mitigate bias amplification, while more robust underlying LLMs improve overall system stability. Our findings highlight critical factors shaping fairness and resilience in multi-agent LLM systems.
- Abstract(参考訳): 大規模言語モデル(LLMs)におけるバイアスは、社会集団全体でのステレオタイピングと不公平な扱いにおいて、引き続き永続的な課題である。
従来の研究は個々のモデルに重点を置いていたが、複数のLLMが協調してコミュニケーションするマルチエージェントシステム(MAS)の台頭により、バイアスの出現と伝播において、新しく、ほとんど探索されていないダイナミクスが導入された。
本研究では,MASにおけるステレオタイプバイアスの包括的研究を行い,内部特殊化,基礎となるLLM,およびエージェント間通信プロトコルが,バイアスの堅牢性,伝播,増幅にどのように影響するかを検討する。
エージェントが異なる社会的グループを表現する社会的文脈をシミュレートし、様々な相互作用や対立シナリオ下でのシステム行動を評価する。
3つのバイアスベンチマークの実験では、MASはシングルエージェントシステムよりも一般的には堅牢ではなく、グループ内の好意によってしばしば早期に偏見が現れる。
しかしながら、協調的および議論に基づくコミュニケーションはバイアス増幅を緩和し、より堅牢なLLMはシステム全体の安定性を向上させる。
以上の結果から,マルチエージェントLPMシステムにおける公平性とレジリエンスを規定する重要な要因が示唆された。
関連論文リスト
- Your AI Bosses Are Still Prejudiced: The Emergence of Stereotypes in LLM-Based Multi-Agent Systems [3.35957402502816]
AIに基づくマルチエージェントシステムにおけるステレオタイプの出現と進化について検討する。
以上の結果から,AIエージェントは事前に定義されたバイアスを伴わずに,対話においてステレオタイプによるバイアスを発生させることが判明した。
これらのシステムは、ハロ効果、確認バイアス、役割整合性など、人間の社会的行動に類似したグループ効果を示す。
論文 参考訳(メタデータ) (2025-08-27T14:25:43Z) - An Empirical Study of Group Conformity in Multi-Agent Systems [0.26999000177990923]
本研究では,Large Language Models (LLMs) が,5つの論点に関する議論を通じて世論を形成する方法について考察する。
2500以上の議論をシミュレートすることで、当初中立なエージェントが中心的な処分を課し、時間とともに特定のスタンスを採用するかを分析します。
論文 参考訳(メタデータ) (2025-06-02T05:22:29Z) - Judging with Many Minds: Do More Perspectives Mean Less Prejudice? On Bias Amplifications and Resistance in Multi-Agent Based LLM-as-Judge [70.89799989428367]
我々は、位置バイアス、冗長性バイアス、チェーンオブ思考バイアス、バンドワゴンバイアスの4つの多様なバイアスタイプを体系的に分析する。
広く採用されているマルチエージェントLLM-as-JudgeフレームワークであるMulti-Agent-DebateとLLM-as-Meta-Judgeでこれらのバイアスを評価する。
論文 参考訳(メタデータ) (2025-05-26T03:56:41Z) - MLLMs are Deeply Affected by Modality Bias [158.64371871084478]
MLLM(Multimodal Large Language Models)の最近の進歩は、テキストや画像などの多様なモダリティを統合する上で、有望な成果を示している。
MLLMはモダリティバイアスに強く影響され、しばしば言語に依存し、視覚入力のような他のモダリティを過小評価する。
本稿では,MLLMはモダリティバイアスの影響を強く受けており,様々なタスクにまたがってその発現を明らかにする。
論文 参考訳(メタデータ) (2025-05-24T11:49:31Z) - HiddenBench: Assessing Collective Reasoning in Multi-Agent LLMs via Hidden Profile Tasks [12.203366267017737]
マルチエージェント LLM における集合的推論を評価するための最初のベンチマークである HiddenBench を紹介する。
ベンチマークを基礎として,このパラダイムをカスタムタスクで形式化し,GPT-4.1グループが分散知識の統合に失敗したことを示す。
次に、カスタムデザイン、先行研究、自動生成から引き出された65のタスクにまたがる完全なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-05-15T19:22:54Z) - MALIBU Benchmark: Multi-Agent LLM Implicit Bias Uncovered [2.8692611791027893]
我々は,マルチエージェントシステムが社会的バイアスやステレオタイプを暗黙的に補強する程度を評価するために開発された新しいベンチマークであるMALIBUを提案する。
本研究は, LLM生成出力の偏差を定量化し, 偏差緩和が真の中立性よりも限界化されたペルソナを優先することを明らかにする。
論文 参考訳(メタデータ) (2025-04-10T19:16:40Z) - Unmasking Conversational Bias in AI Multiagent Systems [1.0705399532413618]
生成モデルを含むマルチエージェントシステムで生じる可能性のあるバイアスは、未研究のままである。
本稿では,対話型大規模言語モデルのマルチエージェントシステムにおけるバイアスの定量化を目的としたフレームワークを提案する。
エコーチャンバー実験で観測されたバイアスは、現在最先端のバイアス検出法で検出されていない。
論文 参考訳(メタデータ) (2025-01-24T09:10:02Z) - LMAgent: A Large-scale Multimodal Agents Society for Multi-user Simulation [66.52371505566815]
大規模言語モデル(LLM)ベースのAIエージェントは、人間のような知性を達成するために、大きな進歩を遂げた。
LMAgentは,マルチモーダル LLM に基づく大規模かつマルチモーダルなエージェント社会である。
LMAgentでは、友人とチャットする以外に、エージェントは自動で商品を閲覧、購入、レビューしたり、ライブストリーミングのeコマースを行うこともできる。
論文 参考訳(メタデータ) (2024-12-12T12:47:09Z) - A Multi-LLM Debiasing Framework [85.17156744155915]
大規模言語モデル(LLM)は、社会に多大な利益をもたらす可能性がある強力なツールであるが、社会的不平等を持続するバイアスを示す。
近年,マルチLLM手法への関心が高まっており,推論の質向上に有効であることが示されている。
LLMのバイアス低減を目的としたマルチLLMデバイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T20:24:50Z) - Social Debiasing for Fair Multi-modal LLMs [59.61512883471714]
MLLM(Multi-modal Large Language Models)は、研究分野を劇的に進歩させ、強力な視覚言語理解機能を提供する。
これらのモデルは、しばしば訓練データから根深い社会的偏見を継承し、人種や性別などの属性に対する不快な反応をもたらす。
本稿では,MLLMにおける社会的バイアスの問題を,複数の社会的概念を持つ包括的対実的データセットを導入することで解決する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。