論文の概要: Mitigating Cultural Bias in LLMs via Multi-Agent Cultural Debate
- arxiv url: http://arxiv.org/abs/2601.12091v1
- Date: Sat, 17 Jan 2026 16:00:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.458137
- Title: Mitigating Cultural Bias in LLMs via Multi-Agent Cultural Debate
- Title(参考訳): LLMにおける多言語文化討論による文化的バイアスの緩和
- Authors: Qian Tan, Lei Jiang, Yuting Zeng, Shuoyang Ding, Xiaohua Xu,
- Abstract要約: 大規模言語モデル(LLM)は、体系的な西洋中心の偏見を示すが、非西洋の言語がそれを緩和できるかどうかはまだ検討されていない。
我々は、中国語のバイリンガルベンチマークであるCEBiasBenchと、偏見の判断を明確化するためのマルチエージェント投票(MAV)を紹介する。
この枠組みを用いることで、中国はそれを排除するのではなく、単に東アジアの視点に偏見を移すだけであることがわかった。
- 参考スコア(独自算出の注目度): 7.517766226036547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) exhibit systematic Western-centric bias, yet whether prompting in non-Western languages (e.g., Chinese) can mitigate this remains understudied. Answering this question requires rigorous evaluation and effective mitigation, but existing approaches fall short on both fronts: evaluation methods force outputs into predefined cultural categories without a neutral option, while mitigation relies on expensive multi-cultural corpora or agent frameworks that use functional roles (e.g., Planner--Critique) lacking explicit cultural representation. To address these gaps, we introduce CEBiasBench, a Chinese--English bilingual benchmark, and Multi-Agent Vote (MAV), which enables explicit ``no bias'' judgments. Using this framework, we find that Chinese prompting merely shifts bias toward East Asian perspectives rather than eliminating it. To mitigate such persistent bias, we propose Multi-Agent Cultural Debate (MACD), a training-free framework that assigns agents distinct cultural personas and orchestrates deliberation via a "Seeking Common Ground while Reserving Differences" strategy. Experiments demonstrate that MACD achieves 57.6% average No Bias Rate evaluated by LLM-as-judge and 86.0% evaluated by MAV (vs. 47.6% and 69.0% baseline using GPT-4o as backbone) on CEBiasBench and generalizes to the Arabic CAMeL benchmark, confirming that explicit cultural representation in agent frameworks is essential for cross-cultural fairness.
- Abstract(参考訳): 大規模言語モデル(LLM)は、体系的な西洋中心バイアスを示すが、非西洋語(例えば、中国語)でこの傾向を緩和できるかどうかはまだ検討されていない。
この疑問に答えるには厳格な評価と効果的な緩和が必要であるが、既存のアプローチは両面では不十分である。評価手法は、中立性のない事前定義された文化的カテゴリに出力を強制する一方で、明示的な文化的表現を欠いた高額な多文化コーパスやエージェントフレームワークに依存している。これらのギャップに対処するため、中国英語のバイリンガルベンチマークであるCEBiasBenchと、明示的な「非バイアス」判断を可能にするマルチエージェント投票(MAV)を導入している。
この枠組みを用いることで、中国はそれを排除するのではなく、単に東アジアの視点に偏見を移すだけであることがわかった。
このような永続的バイアスを軽減するため,我々は,エージェントを個別の文化的ペルソナに割り当てる訓練自由な枠組みであるMACD(Multi-Agent Cultural Debate)を提案する。
実験により、MACDはCEBiasBench上で平均57.6%のNo Bias Rate、MAV(vs. 47.6%および69.0%のベースラインをGPT-4oをバックボーンとして使用)により評価され、アラビア語のCAMeLベンチマークに一般化され、エージェントフレームワークにおける明示的な文化的表現が異文化フェアネスに欠かせないことが確認された。
関連論文リスト
- MMA-ASIA: A Multilingual and Multimodal Alignment Framework for Culturally-Grounded Evaluation [91.22008265721952]
MMA-ASIAは、アジア8か国と10か国を対象とする人為的、多言語的、マルチモーダルなベンチマークに重点を置いている。
これは、テキスト、画像(視覚的質問応答)、音声の3つのモードにまたがる入力レベルで整列された最初のデータセットである。
i) 国間の文化的認識格差、(ii) 言語間の整合性、(iii) 言語間の整合性、(iv) 文化知識の一般化、(v) 基礎的妥当性を評価する5次元評価プロトコルを提案する。
論文 参考訳(メタデータ) (2025-10-07T14:12:12Z) - CCD-Bench: Probing Cultural Conflict in Large Language Model Decision-Making [0.9310318514564272]
大きな言語モデルは、合法的に異なる文化的価値システム間の明示的な衝突をナビゲートすることができる。
CCD-Benchは、文化的価値の対立の下で意思決定を評価するベンチマークである。
CCD-Benchは、孤立バイアス検出以上の評価を多元的意思決定にシフトする。
論文 参考訳(メタデータ) (2025-10-03T22:55:37Z) - Which Cultural Lens Do Models Adopt? On Cultural Positioning Bias and Agentic Mitigation in LLMs [53.07843733899881]
大規模言語モデル(LLM)は、幅広い下流生成アプリケーションをアンロックした。
また、米国主流の文化の観点から、文化にまつわる微妙な公平性の問題に対処し、世代を配置するリスクも見いだす。
本稿では、これらのバイアスを解決するための2つの推論時間緩和法を提案する。
論文 参考訳(メタデータ) (2025-09-25T12:28:25Z) - Cross-Cultural Transfer of Commonsense Reasoning in LLMs: Evidence from the Arab World [68.19795061447044]
本稿では,アラブ世界におけるコモンセンス推論の異文化間移動について検討する。
アラブ13カ国を対象とした文化基盤のコモンセンス推論データセットを用いて,軽量アライメント手法の評価を行った。
以上の結果から,他国の文化特有例は12例に過ぎず,他国の文化特有例を平均10%向上させることができた。
論文 参考訳(メタデータ) (2025-09-23T17:24:14Z) - MyCulture: Exploring Malaysia's Diverse Culture under Low-Resource Language Constraints [7.822567458977689]
MyCultureは、マレーシアの文化に関する大規模言語モデル(LLM)を総合的に評価するために設計されたベンチマークである。
従来のベンチマークとは異なり、MyCultureは未定義のオプションなしで、新しいオープンエンドの複数選択質問フォーマットを採用している。
構造化された出力と自由形式出力のモデル性能を比較して構造バイアスを解析し、多言語的プロンプト変動による言語バイアスを評価する。
論文 参考訳(メタデータ) (2025-08-07T14:17:43Z) - Multimodal Cultural Safety: Evaluation Frameworks and Alignment Strategies [58.88053690412802]
大規模視覚言語モデル(LVLM)は、観光アシスタントのようなグローバルに分散したアプリケーションにますます導入されている。
CROSSは、LVLMの文化的安全性推論能力を評価するために設計されたベンチマークである。
実験モデルと推論モデルを含む21種類のLVLMを評価した。
論文 参考訳(メタデータ) (2025-05-20T23:20:38Z) - WorldView-Bench: A Benchmark for Evaluating Global Cultural Perspectives in Large Language Models [1.094065133109559]
大規模言語モデル(LLM)は、西洋中心の認識論と社会文化的規範を強化する方法で主に訓練され、整列されている。
多様な世界観に対応する能力を分析し,LLMにおけるグローバルカルチャー・インクルーシティ(GCI)を評価するためのベンチマークであるWorldView-Benchを紹介する。
論文 参考訳(メタデータ) (2025-05-14T17:43:40Z) - Global MMLU: Understanding and Addressing Cultural and Linguistic Biases in Multilingual Evaluation [71.59208664920452]
多言語データセットの文化的バイアスは、グローバルベンチマークとしての有効性に重大な課題をもたらす。
MMLUの進歩は西洋中心の概念の学習に大きく依存しており、文化に敏感な知識を必要とする質問の28%がそうである。
改良されたMMLUであるGlobal MMLUをリリースし,42言語を対象に評価を行った。
論文 参考訳(メタデータ) (2024-12-04T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。