論文の概要: Mind the Gap: Pitfalls of LLM Alignment with Asian Public Opinion
- arxiv url: http://arxiv.org/abs/2603.06264v1
- Date: Fri, 06 Mar 2026 13:29:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.79284
- Title: Mind the Gap: Pitfalls of LLM Alignment with Asian Public Opinion
- Title(参考訳): マインド・ザ・ギャップ(Mind the Gap) - LLMアライメントの落とし穴とアジアの世論
- Authors: Hari Shankar, Vedanta S P, Sriharini Margapuri, Debjani Mazumder, Ponnurangam Kumaraguru, Abhijnan Chakraborty,
- Abstract要約: 大規模言語モデル(LLM)は、多言語で多文化的な設定で徐々に展開されている。
本研究は、宗教のセンシティブな領域を、より広いアライメントのためのプリズムとして重視する。
一般的なモデルは一般に広い社会問題に関する世論と一致しているが、宗教的視点を正確に表現することができない。
- 参考スコア(独自算出の注目度): 8.443928474148114
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) are increasingly being deployed in multilingual, multicultural settings, yet their reliance on predominantly English-centric training data risks misalignment with the diverse cultural values of different societies. In this paper, we present a comprehensive, multilingual audit of the cultural alignment of contemporary LLMs including GPT-4o-Mini, Gemini-2.5-Flash, Llama 3.2, Mistral and Gemma 3 across India, East Asia and Southeast Asia. Our study specifically focuses on the sensitive domain of religion as the prism for broader alignment. To facilitate this, we conduct a multi-faceted analysis of every LLM's internal representations, using log-probs/logits, to compare the model's opinion distributions against ground-truth public attitudes. We find that while the popular models generally align with public opinion on broad social issues, they consistently fail to accurately represent religious viewpoints, especially those of minority groups, often amplifying negative stereotypes. Lightweight interventions, such as demographic priming and native language prompting, partially mitigate but do not eliminate these cultural gaps. We further show that downstream evaluations on bias benchmarks (such as CrowS-Pairs, IndiBias, ThaiCLI, KoBBQ) reveal persistent harms and under-representation in sensitive contexts. Our findings underscore the urgent need for systematic, regionally grounded audits to ensure equitable global deployment of LLMs.
- Abstract(参考訳): 大規模言語モデル (LLM) は多言語で多文化的な設定で展開されつつあるが、主に英語中心の訓練データに依存しているため、異なる社会の多様な文化的価値観との相違が懸念されている。
本稿では,インド,東アジア,東南アジアのGPT-4o-Mini,Gemini-2.5-Flash,Llama 3.2,Mistral,Gemma 3を含む現代LLMの文化的アライメントの包括的多言語的評価について述べる。
本研究は、宗教のセンシティブな領域を、より広いアライメントのためのプリズムとして重視する。
これを容易にするために、ログプロブ/ロジットを用いて、全てのLCMの内部表現を多面的に解析し、モデルの意見分布と地味な大衆の態度を比較する。
一般的なモデルは一般に広い社会問題に関する世論と一致しているが、宗教的視点、特に少数派の視点を正確に表すことができず、しばしば否定的なステレオタイプを増幅する。
人口統計学的なプライミングや母国語のプロンプトのような軽量な介入は部分的に緩和されるが、これらの文化的ギャップを排除しない。
さらに、バイアスベンチマーク(CrowS-Pairs、IndiBias、ThaiCLI、KoBBQなど)のダウンストリーム評価は、センシティブな文脈で永続的な害と表現不足を明らかにしている。
本研究は, LLMのグローバル展開の適正化を図るため, 組織的, 地域的に根ざした監査の必要性を浮き彫りにするものである。
関連論文リスト
- Which Cultural Lens Do Models Adopt? On Cultural Positioning Bias and Agentic Mitigation in LLMs [53.07843733899881]
大規模言語モデル(LLM)は、幅広い下流生成アプリケーションをアンロックした。
また、米国主流の文化の観点から、文化にまつわる微妙な公平性の問題に対処し、世代を配置するリスクも見いだす。
本稿では、これらのバイアスを解決するための2つの推論時間緩和法を提案する。
論文 参考訳(メタデータ) (2025-09-25T12:28:25Z) - MyCulture: Exploring Malaysia's Diverse Culture under Low-Resource Language Constraints [7.822567458977689]
MyCultureは、マレーシアの文化に関する大規模言語モデル(LLM)を総合的に評価するために設計されたベンチマークである。
従来のベンチマークとは異なり、MyCultureは未定義のオプションなしで、新しいオープンエンドの複数選択質問フォーマットを採用している。
構造化された出力と自由形式出力のモデル性能を比較して構造バイアスを解析し、多言語的プロンプト変動による言語バイアスを評価する。
論文 参考訳(メタデータ) (2025-08-07T14:17:43Z) - Do Large Language Models Understand Morality Across Cultures? [0.5356944479760104]
本研究では,大規模言語モデルが道徳的視点における異文化間差異や類似性をどの程度捉えているかを検討する。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できないことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-28T20:25:36Z) - FairI Tales: Evaluation of Fairness in Indian Contexts with a Focus on Bias and Stereotypes [23.71105683137539]
フェアネスに関する既存の研究は、主に西洋に焦点を絞っており、インドのような文化的に多様な国では不十分である。
インドを中心とした総合的なベンチマークであるINDIC-BIASを導入し,85の社会アイデンティティグループを対象としたLCMの公平性を評価する。
論文 参考訳(メタデータ) (2025-06-29T06:31:06Z) - Fluent but Foreign: Even Regional LLMs Lack Cultural Alignment [24.871503011248777]
大規模な言語モデル(LLM)は世界中で使用されているが、西洋文化の傾向を示す。
我々は,6つの指標と6つのグローバルLLMを2次元(値とプラクティス)で評価する。
タスク全体では、Indicモデルはグローバルモデルよりもインド標準とよく一致しない。
論文 参考訳(メタデータ) (2025-05-25T01:59:23Z) - Sometimes the Model doth Preach: Quantifying Religious Bias in Open LLMs through Demographic Analysis in Asian Nations [8.769839351949997]
大きな言語モデル(LLM)は、意見を生成し、バイアスを無意識に伝播することができる。
本研究は,LLMが生み出す意見を定量的に分析する手法を提案する。
Llama や Mistral のような近代的でオープンな LLM を世界各国で実施した調査で評価した。
論文 参考訳(メタデータ) (2025-03-10T16:32:03Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - See It from My Perspective: How Language Affects Cultural Bias in Image Understanding [60.70852566256668]
視覚言語モデル(VLM)は、多くの言語における画像に関するクエリに応答することができる。
画像理解におけるVLMの西洋的偏見を特徴付け,この格差の中で言語が果たす役割について検討する。
論文 参考訳(メタデータ) (2024-06-17T15:49:51Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。