論文の概要: From Single to Societal: Analyzing Persona-Induced Bias in Multi-Agent Interactions
- arxiv url: http://arxiv.org/abs/2511.11789v1
- Date: Fri, 14 Nov 2025 18:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.312592
- Title: From Single to Societal: Analyzing Persona-Induced Bias in Multi-Agent Interactions
- Title(参考訳): 単一から社会へ:多エージェントインタラクションにおけるペルソナ誘発バイアスの分析
- Authors: Jiayi Li, Xiao Liu, Yansong Feng,
- Abstract要約: 大規模言語モデル(LLM)ベースのマルチエージェントシステムは、人間のインタラクションをシミュレートし、協調的なタスクを解決するためにますます利用されている。
ペルソナはマルチエージェントインタラクションにバイアスをもたらすか?
本稿では,多エージェントインタラクションにおけるペルソナ誘発バイアスの系統的研究について述べる。
- 参考スコア(独自算出の注目度): 19.313710831511067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM)-based multi-agent systems are increasingly used to simulate human interactions and solve collaborative tasks. A common practice is to assign agents with personas to encourage behavioral diversity. However, this raises a critical yet underexplored question: do personas introduce biases into multi-agent interactions? This paper presents a systematic investigation into persona-induced biases in multi-agent interactions, with a focus on social traits like trustworthiness (how an agent's opinion is received by others) and insistence (how strongly an agent advocates for its opinion). Through a series of controlled experiments in collaborative problem-solving and persuasion tasks, we reveal that (1) LLM-based agents exhibit biases in both trustworthiness and insistence, with personas from historically advantaged groups (e.g., men and White individuals) perceived as less trustworthy and demonstrating less insistence; and (2) agents exhibit significant in-group favoritism, showing a higher tendency to conform to others who share the same persona. These biases persist across various LLMs, group sizes, and numbers of interaction rounds, highlighting an urgent need for awareness and mitigation to ensure the fairness and reliability of multi-agent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのマルチエージェントシステムは、人間のインタラクションをシミュレートし、協調的なタスクを解決するためにますます利用されている。
行動多様性を促進するためにエージェントにペルソナを割り当てることが一般的である。
ペルソナはマルチエージェントインタラクションにバイアスを導入しますか?
本稿では,多エージェントインタラクションにおけるペルソナによる偏見を,信頼感(エージェントの意見が他者からどのように受け入れられるか)や主張(エージェントがどのようにその意見を支持するのか)といった社会的特性に焦点をあてて,体系的に検討する。
協調問題解決・説得作業における一連の制御実験を通じて,(1)LLMを主体としたエージェントは,信頼感と主張の両面での偏りを示すとともに,歴史的に有利なグループ(例えば,男性,白人)のペルソナは信頼性が低く,主張力の低下を示す。
これらのバイアスは、様々なLDM、グループサイズ、相互作用ラウンドの数にまたがって持続し、マルチエージェントシステムの公平性と信頼性を確保するために、意識と緩和の緊急の必要性を強調している。
関連論文リスト
- The Social Cost of Intelligence: Emergence, Propagation, and Amplification of Stereotypical Bias in Multi-Agent Systems [20.359327253718718]
大規模言語モデル(LLMs)におけるバイアスは、社会集団全体でのステレオタイピングと不公平な扱いにおいて、引き続き永続的な課題である。
内部特殊化, 基礎となるLCM, エージェント間通信プロトコルが, バイアス堅牢性, 伝搬, 増幅に与える影響について検討した。
以上の結果から,マルチエージェントLPMシステムにおける公平性とレジリエンスを規定する重要な要因が示唆された。
論文 参考訳(メタデータ) (2025-10-13T02:56:42Z) - Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - HiddenBench: Assessing Collective Reasoning in Multi-Agent LLMs via Hidden Profile Tasks [12.203366267017737]
マルチエージェント LLM における集合的推論を評価するための最初のベンチマークである HiddenBench を紹介する。
ベンチマークを基礎として,このパラダイムをカスタムタスクで形式化し,GPT-4.1グループが分散知識の統合に失敗したことを示す。
次に、カスタムデザイン、先行研究、自動生成から引き出された65のタスクにまたがる完全なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-05-15T19:22:54Z) - Multi-Agents are Social Groups: Investigating Social Influence of Multiple Agents in Human-Agent Interactions [22.997945675889465]
我々は,AIエージェントの集団が,ユーザに対して同意を求める社会的プレッシャーを生じさせるかどうかを検討する。
その結果、複数のエージェントと会話することで、参加者が感じた社会的プレッシャーが増すことがわかった。
本研究は, 単一エージェントプラットフォームに対するマルチエージェントシステムの潜在的利点が, 意見変化を引き起こす可能性を示唆している。
論文 参考訳(メタデータ) (2024-11-07T10:00:46Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。