論文の概要: A Game-Theoretic Negotiation Framework for Cross-Cultural Consensus in LLMs
- arxiv url: http://arxiv.org/abs/2506.13245v1
- Date: Mon, 16 Jun 2025 08:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.883059
- Title: A Game-Theoretic Negotiation Framework for Cross-Cultural Consensus in LLMs
- Title(参考訳): LLMにおけるクロスカルチュラルコンセンサスのためのゲーム理論ネゴシエーションフレームワーク
- Authors: Guoxi Zhang, Jiawei Chen, Tianzhuo Yang, Jiaming Ji, Yaodong Yang, Juntao Dai,
- Abstract要約: 大型言語モデル (LLMs) は、WEIRD (Western, Educated, Industrialized, Rich, Democratic) の文化的偏見を示す。
この単文化的な観点は、支配的な価値観を強化し、多様な文化的視点を疎外する可能性がある。
公正で堅牢な異文化間の合意を促進するために設計された体系的枠組みを導入する。
- 参考スコア(独自算出の注目度): 10.655783463895325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing prevalence of large language models (LLMs) is influencing global value systems. However, these models frequently exhibit a pronounced WEIRD (Western, Educated, Industrialized, Rich, Democratic) cultural bias due to lack of attention to minority values. This monocultural perspective may reinforce dominant values and marginalize diverse cultural viewpoints, posing challenges for the development of equitable and inclusive AI systems. In this work, we introduce a systematic framework designed to boost fair and robust cross-cultural consensus among LLMs. We model consensus as a Nash Equilibrium and employ a game-theoretic negotiation method based on Policy-Space Response Oracles (PSRO) to simulate an organized cross-cultural negotiation process. To evaluate this approach, we construct regional cultural agents using data transformed from the World Values Survey (WVS). Beyond the conventional model-level evaluation method, We further propose two quantitative metrics, Perplexity-based Acceptence and Values Self-Consistency, to assess consensus outcomes. Experimental results indicate that our approach generates consensus of higher quality while ensuring more balanced compromise compared to baselines. Overall, it mitigates WEIRD bias by guiding agents toward convergence through fair and gradual negotiation steps.
- Abstract(参考訳): 大規模言語モデル(LLM)の普及は、グローバルバリューシステムに影響を与えている。
しかしこれらのモデルは、少数民族の価値観に注意が払われていないため、WEIRD(Western, Educated, Industrialized, Rich, Democratic)の文化的偏見をしばしば示している。
この単文化的な観点は、支配的な価値観を強化し、多様な文化的視点を疎外し、公平で包括的なAIシステムの開発に挑戦する可能性がある。
本研究では,LLM間の公正かつ堅牢な相互文化合意を促進するために,体系的な枠組みを導入する。
我々は、合意をナッシュ均衡としてモデル化し、政策空間対応オラクル(PSRO)に基づくゲーム理論交渉手法を用いて、組織された異文化間交渉プロセスをシミュレートする。
このアプローチを評価するために,世界価値調査(WVS)から変換されたデータを用いて地域文化エージェントを構築した。
従来のモデルレベルの評価方法以外にも、コンセンサス結果を評価するために、パープレキシティベースのアクセプタンスと価値自己一貫性という2つの定量的指標を提案する。
実験結果から,本手法は,ベースラインよりもバランスの取れた妥協を確実にしつつ,高品質のコンセンサスを生成することが示唆された。
全体としては、公正かつ段階的な交渉ステップを通じて、エージェントを収束に向けて導くことでWEIRDバイアスを緩和する。
関連論文リスト
- WorldView-Bench: A Benchmark for Evaluating Global Cultural Perspectives in Large Language Models [1.094065133109559]
大規模言語モデル(LLM)は、西洋中心の認識論と社会文化的規範を強化する方法で主に訓練され、整列されている。
多様な世界観に対応する能力を分析し,LLMにおけるグローバルカルチャー・インクルーシティ(GCI)を評価するためのベンチマークであるWorldView-Benchを紹介する。
論文 参考訳(メタデータ) (2025-05-14T17:43:40Z) - Cultural Learning-Based Culture Adaptation of Language Models [70.1063219524999]
大きな言語モデル(LLM)をさまざまな文化的価値に適用することは難しい課題です。
文化的学習に基づくLLMと文化的価値との整合性を高めるための新しい枠組みであるCLCAについて述べる。
論文 参考訳(メタデータ) (2025-04-03T18:16:26Z) - Negotiative Alignment: Embracing Disagreement to Achieve Fairer Outcomes -- Insights from Urban Studies [3.510270856154939]
本研究はモントリオール市における住民35名を対象にした地域調査から得られた知見である。
我々は、不一致を保存、分析、対処に必要な入力として扱うAIフレームワークである、交渉的アライメントを提案する。
論文 参考訳(メタデータ) (2025-03-16T18:55:54Z) - Rethinking AI Cultural Alignment [1.8434042562191815]
人間の文化的価値は、特定のAIシステムのコンテキスト内で理解されなければならないことを示す。
文化的アライメントは双方向のプロセスとして再編成されるべきである、と私たちは主張する。
論文 参考訳(メタデータ) (2025-01-13T23:42:37Z) - LLM-GLOBE: A Benchmark Evaluating the Cultural Values Embedded in LLM Output [8.435090588116973]
LLMの文化的価値システムを評価するためのLLM-GLOBEベンチマークを提案する。
次に、このベンチマークを利用して、中国とアメリカのLLMの値を比較します。
提案手法は,オープンエンドコンテンツの評価を自動化する新しい"LLMs-as-a-Jury"パイプラインを含む。
論文 参考訳(メタデータ) (2024-11-09T01:38:55Z) - Rethinking Model Evaluation as Narrowing the Socio-Technical Gap [47.632123167141245]
モデル評価の実践は、この均質化によってもたらされる課題や責任に対処するために、重要なタスクを負わなければならない、と我々は主張する。
我々は,現実の文脈と人間の要求に基づく評価手法の開発をコミュニティに促す。
論文 参考訳(メタデータ) (2023-06-01T00:01:43Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。