論文の概要: Measuring and Mitigating Identity Bias in Multi-Agent Debate via Anonymization
- arxiv url: http://arxiv.org/abs/2510.07517v1
- Date: Wed, 08 Oct 2025 20:29:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.718721
- Title: Measuring and Mitigating Identity Bias in Multi-Agent Debate via Anonymization
- Title(参考訳): 匿名化によるマルチエージェント討論におけるアイデンティティバイアスの測定と緩和
- Authors: Hyeong Kyu Choi, Xiaojin Zhu, Yixuan Li,
- Abstract要約: マルチエージェント討論(MAD)は、複数のエージェントが回答を交換し、意見を集約することで、大規模言語モデル(LLM)推論を改善することを目的としている。
しかし最近の研究では、エージェントは中立的ではないことが明らかになっている。
我々は、MADにおけるアイデンティティバイアスを緩和し定量化するために、梅毒と自己バイアスを結合する最初の原則的枠組みを提示する。
- 参考スコア(独自算出の注目度): 24.932437142359305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent debate (MAD) aims to improve large language model (LLM) reasoning by letting multiple agents exchange answers and then aggregate their opinions. Yet recent studies reveal that agents are not neutral: they are prone to identity-driven sycophancy and self-bias, uncritically adopting a peer's view or stubbornly adhering to their own prior output, undermining the reliability of debate. In this work, we present the first principled framework that joins sycophancy and self-bias to mitigate and quantify identity bias in MAD. First, we formalize the debate dynamics as an identity-weighted Bayesian update process. Second, we propose response anonymization: by removing identity markers from prompts, agents cannot distinguish "self" from "peer", which forces equal weights on agent identity, thereby reducing bias. Third, we define the Identity Bias Coefficient (IBC), a principled metric that measures how often an agent follows a peer versus itself. Empirical studies across multiple models, datasets and debate rounds confirm that identity bias is widespread, with sycophancy far more common than self-bias. Our findings highlight the need to "mask" identity to ensure that MAD systems reason based on content rather than source identity. Code is released in https://github.com/deeplearning-wisc/MAD-identity-bias.
- Abstract(参考訳): マルチエージェント討論(MAD)は、複数のエージェントが回答を交換し、意見を集約することで、大規模言語モデル(LLM)推論を改善することを目的としている。
しかし、最近の研究では、エージェントは中立的ではないことが明らかになっている。それらはアイデンティティ駆動の梅毒症や自己バイアスになりがちで、ピアの見解を不批判的に採用するか、あるいは自分たちの以前の成果に頑固に固執し、議論の信頼性を損なう。
本研究では,MADにおけるアイデンティティバイアスを緩和し定量化するために,梅毒と自己バイアスを結合する最初の原則的枠組みを示す。
まず、議論のダイナミクスをアイデンティティを重み付けしたベイズ更新プロセスとして定式化する。
第二に、エージェントはプロンプトからアイデンティティマーカーを取り除くことで、エージェントのアイデンティティに等しく重みを課す「ピア」と「自分」を区別できないため、バイアスを減少させる。
第三にアイデンティティバイアス係数(IBC)は、エージェントがピアとそれ自身にどれだけの頻度で従うかを測定する、原則付きメトリックである。
複数のモデル、データセット、議論ラウンドにわたる実証研究は、アイデンティティバイアスが広く、自己バイアスよりもはるかに一般的であることを確認した。
本研究は,MADシステムにおいて,情報源の同一性ではなく,コンテンツに基づく判断を確実にするために,アイデンティティを「マスク」する必要があることを強調した。
コードはhttps://github.com/deeplearning-wisc/MAD-identity-biasで公開されている。
関連論文リスト
- Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - Internalizing Self-Consistency in Language Models: Multi-Agent Consensus Alignment [22.305033366660187]
言語モデル(LM)は矛盾する推論子であり、しばしば同じプロンプトに対する矛盾した応答を生成する。
適切に整合した推論モデルの本質的な性質として自己整合性を定式化し、MACA(Multi-Agent Consensus Alignment)を導入する。
MACAは、エージェントが自分自身をより決定的かつ簡潔に教えることを可能にし、外部の監督なしにマルチエージェント設定におけるピアインサイトをより活用する。
論文 参考訳(メタデータ) (2025-09-18T17:27:28Z) - SELFI: Selective Fusion of Identity for Generalizable Deepfake Detection [16.500269508552844]
顔認証はディープフェイク検出のための強力な信号を提供する。
偏見を減らすためにアイデンティティーの手がかりを抑えるものもあれば、法医学的な証拠としてそれらに依存するものもある。
textbfSELFI(textbfSELective textbfIdentity)を提案する。
論文 参考訳(メタデータ) (2025-06-21T05:11:35Z) - Judging with Many Minds: Do More Perspectives Mean Less Prejudice? On Bias Amplifications and Resistance in Multi-Agent Based LLM-as-Judge [70.89799989428367]
我々は、位置バイアス、冗長性バイアス、チェーンオブ思考バイアス、バンドワゴンバイアスの4つの多様なバイアスタイプを体系的に分析する。
広く採用されているマルチエージェントLLM-as-JudgeフレームワークであるMulti-Agent-DebateとLLM-as-Meta-Judgeでこれらのバイアスを評価する。
論文 参考訳(メタデータ) (2025-05-26T03:56:41Z) - Unmasking Conversational Bias in AI Multiagent Systems [1.0705399532413618]
生成モデルを含むマルチエージェントシステムで生じる可能性のあるバイアスは、未研究のままである。
本稿では,対話型大規模言語モデルのマルチエージェントシステムにおけるバイアスの定量化を目的としたフレームワークを提案する。
エコーチャンバー実験で観測されたバイアスは、現在最先端のバイアス検出法で検出されていない。
論文 参考訳(メタデータ) (2025-01-24T09:10:02Z) - MAD-Sherlock: Multi-Agent Debate for Visual Misinformation Detection [36.12673167913763]
文外誤情報検出のためのマルチエージェント討論システムMAD-Sherlockを紹介する。
MAD-Sherlockは、オンラインで見られる多様で矛盾する会話を反映して、マルチエージェントの議論として検出する。
我々のフレームワークはドメインと時間に依存しず、微調整は必要ありませんが、詳細な説明で最先端の精度を実現しています。
論文 参考訳(メタデータ) (2024-10-26T10:34:22Z) - DebUnc: Improving Large Language Model Agent Communication With Uncertainty Metrics [52.242449026151846]
大規模言語モデル(LLM)の精度向上のためのマルチエージェント論争が紹介されている。
エージェントの信頼性を評価するために不確実性指標を用いた議論フレームワークであるDebUncを提案する。
論文 参考訳(メタデータ) (2024-07-08T22:15:01Z) - Unsupervised Domain Adaptation on Person Re-Identification via
Dual-level Asymmetric Mutual Learning [108.86940401125649]
本稿では,多種多様な埋め込み空間を持つより広い知識領域から識別的表現を学習するための,DAML(Dual-level Asymmetric Mutual Learning)を提案する。
2つのネットワーク間の知識伝達は、非対称な相互学習方式に基づいている。
Market-1501、CUHK-SYSU、MSMT17の公開データセットにおける実験は、最先端技術よりもDAMLの方が優れていることを証明した。
論文 参考訳(メタデータ) (2023-01-29T12:36:17Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。