論文の概要: Belief in Authority: Impact of Authority in Multi-Agent Evaluation Framework
- arxiv url: http://arxiv.org/abs/2601.04790v1
- Date: Thu, 08 Jan 2026 10:13:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.151882
- Title: Belief in Authority: Impact of Authority in Multi-Agent Evaluation Framework
- Title(参考訳): 権限の信念:マルチエージェント評価フレームワークにおける権限の影響
- Authors: Junhyuk Choi, Jeongyoun Kwon, Heeju Kim, Haeun Cho, Hayeong Jung, Sehee Min, Bugeun Kim,
- Abstract要約: 本稿では,ChatEvalを用いたフリーフォームマルチエージェント評価において,役割に基づく権限バイアスを初めて体系的に分析する。
フランス語とラヴェンの権力に基づく理論を応用し、権威的な役割を正当性、参照性、専門家のタイプに分類する。
GPT-4oとDeepSeek R1の実験により、エキスパートと参照パワーの役割はレジデントパワーの役割よりも強い影響力を持つことが明らかになった。
- 参考スコア(独自算出の注目度): 3.6812160259693094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent systems utilizing large language models often assign authoritative roles to improve performance, yet the impact of authority bias on agent interactions remains underexplored. We present the first systematic analysis of role-based authority bias in free-form multi-agent evaluation using ChatEval. Applying French and Raven's power-based theory, we classify authoritative roles into legitimate, referent, and expert types and analyze their influence across 12-turn conversations. Experiments with GPT-4o and DeepSeek R1 reveal that Expert and Referent power roles exert stronger influence than Legitimate power roles. Crucially, authority bias emerges not through active conformity by general agents, but through authoritative roles consistently maintaining their positions while general agents demonstrate flexibility. Furthermore, authority influence requires clear position statements, as neutral responses fail to generate bias. These findings provide key insights for designing multi-agent frameworks with asymmetric interaction patterns.
- Abstract(参考訳): 大規模言語モデルを用いたマルチエージェントシステムは、しばしば性能向上のために権威的役割を割り当てるが、エージェント間の相互作用に対する権威的バイアスの影響は未解明のままである。
本稿では,ChatEvalを用いたフリーフォームマルチエージェント評価において,役割に基づく権限バイアスを初めて体系的に分析する。
フランス語とラヴェンの力に基づく理論を応用し、権威的な役割を正当性、参照性、専門家のタイプに分類し、12ターン会話を通してその影響を分析する。
GPT-4oとDeepSeek R1の実験により、エキスパートと参照パワーの役割はレジデントパワーの役割よりも強い影響力を持つことが明らかになった。
決定的に、権威バイアスは一般エージェントによる積極的な整合性によって現れるのではなく、権威的な役割を通じてその地位を維持しながら、一般エージェントは柔軟性を示す。
さらに、中立応答がバイアスを生じさせないため、権威の影響は明確な位置ステートメントを必要とする。
これらの知見は、非対称な相互作用パターンを持つマルチエージェントフレームワークを設計するための重要な洞察を与える。
関連論文リスト
- From Single to Societal: Analyzing Persona-Induced Bias in Multi-Agent Interactions [19.313710831511067]
大規模言語モデル(LLM)ベースのマルチエージェントシステムは、人間のインタラクションをシミュレートし、協調的なタスクを解決するためにますます利用されている。
ペルソナはマルチエージェントインタラクションにバイアスをもたらすか?
本稿では,多エージェントインタラクションにおけるペルソナ誘発バイアスの系統的研究について述べる。
論文 参考訳(メタデータ) (2025-11-14T18:19:28Z) - Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - An Adversary-Resistant Multi-Agent LLM System via Credibility Scoring [8.779871128906787]
信頼性スコアリングに基づく汎用・対向抵抗型マルチエージェントLCMフレームワークを提案する。
私たちのシステムは、チームのアウトプットを集約するときに使用される信頼性スコアを関連付けています。
論文 参考訳(メタデータ) (2025-05-30T05:57:37Z) - Judging with Many Minds: Do More Perspectives Mean Less Prejudice? On Bias Amplifications and Resistance in Multi-Agent Based LLM-as-Judge [70.89799989428367]
我々は、位置バイアス、冗長性バイアス、チェーンオブ思考バイアス、バンドワゴンバイアスの4つの多様なバイアスタイプを体系的に分析する。
広く採用されているマルチエージェントLLM-as-JudgeフレームワークであるMulti-Agent-DebateとLLM-as-Meta-Judgeでこれらのバイアスを評価する。
論文 参考訳(メタデータ) (2025-05-26T03:56:41Z) - Interactional Fairness in LLM Multi-Agent Systems: An Evaluation Framework [0.0]
マルチエージェントシステムにおける対人フェアネス(IF)と情報フェアネス(InfF)を含むインタラクションフェアネスを評価するための新しい枠組みを提案する。
我々は,資源交渉タスクの制御されたシミュレーションを用いて,パイロットスタディを通じて,我々の枠組みを検証する。
その結果、客観的な結果が一定である場合でも、トーンと正当化品質が受容決定に大きく影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2025-05-17T13:24:13Z) - Problem-Solving in Language Model Networks [44.99833362998488]
この研究は、マルチエージェント論争の概念をより一般的なネットワークトポロジに拡張する。
質問応答の正確さ、影響、コンセンサス、および集団に対する偏見の影響を測定する。
論文 参考訳(メタデータ) (2024-06-18T07:59:14Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。