論文の概要: Which Cultural Lens Do Models Adopt? On Cultural Positioning Bias and Agentic Mitigation in LLMs
- arxiv url: http://arxiv.org/abs/2509.21080v1
- Date: Thu, 25 Sep 2025 12:28:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.900137
- Title: Which Cultural Lens Do Models Adopt? On Cultural Positioning Bias and Agentic Mitigation in LLMs
- Title(参考訳): 文化レンズのどのモデルが採用されるか : LLMにおける文化的位置決めバイアスとエージェント緩和について
- Authors: Yixin Wan, Xingrun Chen, Kai-Wei Chang,
- Abstract要約: 大規模言語モデル(LLM)は、幅広い下流生成アプリケーションをアンロックした。
また、米国主流の文化の観点から、文化にまつわる微妙な公平性の問題に対処し、世代を配置するリスクも見いだす。
本稿では、これらのバイアスを解決するための2つの推論時間緩和法を提案する。
- 参考スコア(独自算出の注目度): 53.07843733899881
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large language models (LLMs) have unlocked a wide range of downstream generative applications. However, we found that they also risk perpetuating subtle fairness issues tied to culture, positioning their generations from the perspectives of the mainstream US culture while demonstrating salient externality towards non-mainstream ones. In this work, we identify and systematically investigate this novel culture positioning bias, in which an LLM's default generative stance aligns with a mainstream view and treats other cultures as outsiders. We propose the CultureLens benchmark with 4000 generation prompts and 3 evaluation metrics for quantifying this bias through the lens of a culturally situated interview script generation task, in which an LLM is positioned as an onsite reporter interviewing local people across 10 diverse cultures. Empirical evaluation on 5 state-of-the-art LLMs reveals a stark pattern: while models adopt insider tones in over 88 percent of US-contexted scripts on average, they disproportionately adopt mainly outsider stances for less dominant cultures. To resolve these biases, we propose 2 inference-time mitigation methods: a baseline prompt-based Fairness Intervention Pillars (FIP) method, and a structured Mitigation via Fairness Agents (MFA) framework consisting of 2 pipelines: (1) MFA-SA (Single-Agent) introduces a self-reflection and rewriting loop based on fairness guidelines. (2) MFA-MA (Multi-Agent) structures the process into a hierarchy of specialized agents: a Planner Agent(initial script generation), a Critique Agent (evaluates initial script against fairness pillars), and a Refinement Agent (incorporates feedback to produce a polished, unbiased script). Empirical results showcase the effectiveness of agent-based methods as a promising direction for mitigating biases in generative LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広い下流生成アプリケーションをアンロックした。
しかし,欧米の主流文化の立場から見ても,文化にまつわる微妙な公平性の問題に対処し,非主流文化に対する健全な外部性を示しつつも,その世代を位置づけるリスクがあることが判明した。
本研究では,LLMのデフォルト生成姿勢が主流の視点と整合し,他の文化を外部者として扱うという,この新たな文化位置バイアスを同定し,体系的に検討する。
本稿では,4000個の生成プロンプトと3つの評価指標を用いたCultureLensベンチマークを提案する。
モデルでは、平均88%以上の米国製テキストスクリプトでインサイダートーンを採用するが、支配的な文化の少ない文化では、主に外部のスタンスを採用する。
これらのバイアスを解決するために,ベースラインのプロンプトに基づくフェアネスインターベンションピラー (FIP) 法と,(1)MFA-SA (Single-Agent) はフェアネスガイドラインに基づく自己回帰と書き換えループを導入する。
2) MFA-MA (Multi-Agent) は、特別エージェントの階層構造として、プランナーエージェント(初期スクリプト生成)、批判エージェント(フェアネスピラーに対する初期スクリプトの評価)、リファインメントエージェント(洗練されていないスクリプトを作成するためのフィードバックを組み込む)を構成している。
実験結果から, 生成LDMのバイアス軽減に向けたエージェントベース手法の有効性が示された。
関連論文リスト
- Do Large Language Models Understand Morality Across Cultures? [0.5356944479760104]
本研究では,大規模言語モデルが道徳的視点における異文化間差異や類似性をどの程度捉えているかを検討する。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できないことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-28T20:25:36Z) - FairI Tales: Evaluation of Fairness in Indian Contexts with a Focus on Bias and Stereotypes [23.71105683137539]
フェアネスに関する既存の研究は、主に西洋に焦点を絞っており、インドのような文化的に多様な国では不十分である。
インドを中心とした総合的なベンチマークであるINDIC-BIASを導入し,85の社会アイデンティティグループを対象としたLCMの公平性を評価する。
論文 参考訳(メタデータ) (2025-06-29T06:31:06Z) - Multiple LLM Agents Debate for Equitable Cultural Alignment [52.01956042197423]
LLMをベースとした2人のエージェントが文化的なシナリオについて議論し、共同で最終決定を下すマルチエージェント議論フレームワークを導入する。
オープンウェイトLLM(および21LLMの組み合わせ)に対するこれらのアプローチを,75カ国の社会的エチケット規範に対するNormAd-ETIベンチマークを用いて評価した。
実験により、単一LLMベースラインよりも総合的精度と文化的グループパリティの両方を改善することが示されている。
論文 参考訳(メタデータ) (2025-05-30T15:01:52Z) - WorldView-Bench: A Benchmark for Evaluating Global Cultural Perspectives in Large Language Models [1.094065133109559]
大規模言語モデル(LLM)は、西洋中心の認識論と社会文化的規範を強化する方法で主に訓練され、整列されている。
多様な世界観に対応する能力を分析し,LLMにおけるグローバルカルチャー・インクルーシティ(GCI)を評価するためのベンチマークであるWorldView-Benchを紹介する。
論文 参考訳(メタデータ) (2025-05-14T17:43:40Z) - An Evaluation of Cultural Value Alignment in LLM [27.437888319382893]
20カ国の文化と言語を10のLLMで評価し,LLM文化の大規模評価を行った。
以上の結果から,全てのモデルにまたがるアウトプットは中程度の文化的中核となることが示唆された。
より深い調査は、モデルの起源、プロンプト言語、および価値次元が文化的なアウトプットに与える影響に光を当てている。
論文 参考訳(メタデータ) (2025-04-11T09:13:19Z) - Toward Inclusive Educational AI: Auditing Frontier LLMs through a Multiplexity Lens [1.094065133109559]
本稿では,大規模言語モデル(LLM)における文化的バイアスの評価と緩和のための枠組みを提案する。
分析の結果,LLMには文化的偏極が頻繁に見られ,バイアスは過度にも微妙にも現れることがわかった。
システムプロンプトに直接多重化原理を組み込む textitContextual-Implemented Multiplex LLM と、複数の LLM エージェントがそれぞれ異なる文化的視点を表現し、バランスよく合成された応答を協調的に生成する textitMulti-Agent System (MAS)-Implemented Multiplex LLM という2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-01-02T11:27:08Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。