論文の概要: Culturally-Grounded Governance for Multilingual Language Models: Rights, Data Boundaries, and Accountable AI Design
- arxiv url: http://arxiv.org/abs/2602.00497v1
- Date: Sat, 31 Jan 2026 03:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.222396
- Title: Culturally-Grounded Governance for Multilingual Language Models: Rights, Data Boundaries, and Accountable AI Design
- Title(参考訳): 多言語モデルのための文化的包括的ガバナンス:権利、データ境界、説明可能なAI設計
- Authors: Hanjing Shi, Dominic DiFranzo,
- Abstract要約: 本稿では,多言語モデル行動,データ対称性,社会工学的害に関する既存の証拠を合成する。
学習データと評価実践における文化的・言語的不平等,グローバル展開と地域的標準,価値観,権力構造との相違,疎外化言語コミュニティが経験した害に対処するための限定的な説明責任機構の3つを識別する。
我々は、多言語モデルが、スケールと中立という概念の下で、既存のグローバルな不平等を再現しないことを保証するためには、文化的に根ざしたガバナンスが不可欠であると主張する。
- 参考スコア(独自算出の注目度): 2.5424331328233207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual large language models (MLLMs) are increasingly deployed across cultural, linguistic, and political contexts, yet existing governance frameworks largely assume English-centric data, homogeneous user populations, and abstract notions of fairness. This creates systematic risks for low-resource languages and culturally marginalized communities, where data practices, model behavior, and accountability mechanisms often fail to align with local norms, rights, and expectations. Drawing on cross-cultural perspectives in human-centered computing and AI governance, this paper synthesizes existing evidence on multilingual model behavior, data asymmetries, and sociotechnical harm, and articulates a culturally grounded governance framework for MLLMs. We identify three interrelated governance challenges: cultural and linguistic inequities in training data and evaluation practices, misalignment between global deployment and locally situated norms, values, and power structures, and limited accountability mechanisms for addressing harms experienced by marginalized language communities. Rather than proposing new technical benchmarks, we contribute a conceptual agenda that reframes multilingual AI governance as a sociocultural and rights based problem. We outline design and policy implications for data stewardship, transparency, and participatory accountability, and argue that culturally grounded governance is essential for ensuring that multilingual language models do not reproduce existing global inequalities under the guise of scale and neutrality.
- Abstract(参考訳): MLLM(Multilingual Large Language Model)は、文化、言語、政治的文脈にまたがって展開されているが、既存のガバナンスフレームワークは、主に英語中心のデータ、同質なユーザー人口、公平性の抽象概念を前提としている。
これは低リソース言語や文化的に疎外されたコミュニティに対して、データプラクティスやモデル行動、説明責任メカニズムがローカルな規範や権利、期待と一致しないような、体系的なリスクを生み出します。
本稿では、人間中心型コンピューティングとAIガバナンスにおける異文化的な視点に基づいて、多言語モデル行動、データ対称性、社会工学的害に関する既存の証拠を合成し、MLLMの文化的基盤となるガバナンスの枠組みを明確にする。
学習データと評価実践における文化的・言語的不平等,グローバル展開と地域的標準,価値観,権力構造との相違,疎外化言語コミュニティが経験した害に対処するための限定的な説明責任機構の3つを識別する。
我々は、新しい技術ベンチマークを提案するのではなく、社会文化と権利に基づく問題として多言語AIガバナンスを再編成する概念的なアジェンダに貢献する。
我々は、データスチュワードシップ、透明性、参加的説明責任に対する設計と政策の影響を概説し、多言語言語モデルがスケールと中立という概念の下で既存のグローバル不平等を再現しないことを保証するためには、文化的に根ざしたガバナンスが不可欠であると主張している。
関連論文リスト
- Challenging the Abilities of Large Language Models in Italian: a Community Initiative [63.94242079171895]
The Abilities of LAnguage Models in ITAlian (CALAMITA)は、イタリアにおける大規模共同ベンチマークイニシアチブである。
学術、産業、公共部門から80人以上のコントリビュータを集め、多様なタスクの設計、文書化、評価を行っている。
我々は,4つのオープンウェイトLDMの結果を報告し,能力の体系的強度と弱点を強調した。
論文 参考訳(メタデータ) (2025-12-04T12:50:29Z) - MMA-ASIA: A Multilingual and Multimodal Alignment Framework for Culturally-Grounded Evaluation [91.22008265721952]
MMA-ASIAは、アジア8か国と10か国を対象とする人為的、多言語的、マルチモーダルなベンチマークに重点を置いている。
これは、テキスト、画像(視覚的質問応答)、音声の3つのモードにまたがる入力レベルで整列された最初のデータセットである。
i) 国間の文化的認識格差、(ii) 言語間の整合性、(iii) 言語間の整合性、(iv) 文化知識の一般化、(v) 基礎的妥当性を評価する5次元評価プロトコルを提案する。
論文 参考訳(メタデータ) (2025-10-07T14:12:12Z) - MyCulture: Exploring Malaysia's Diverse Culture under Low-Resource Language Constraints [7.822567458977689]
MyCultureは、マレーシアの文化に関する大規模言語モデル(LLM)を総合的に評価するために設計されたベンチマークである。
従来のベンチマークとは異なり、MyCultureは未定義のオプションなしで、新しいオープンエンドの複数選択質問フォーマットを採用している。
構造化された出力と自由形式出力のモデル性能を比較して構造バイアスを解析し、多言語的プロンプト変動による言語バイアスを評価する。
論文 参考訳(メタデータ) (2025-08-07T14:17:43Z) - CulFiT: A Fine-grained Cultural-aware LLM Training Paradigm via Multilingual Critique Data Synthesis [41.261808170896686]
CulFiTは、多言語データと微粒な報酬モデリングを利用して、文化的感受性と傾きを高める新しいトレーニングパラダイムである。
本手法は,文化関連諸質問を合成し,文化関連言語における批判データを構築し,文化文献を検証可能な知識単位に分解するために,きめ細かい報酬を用いる。
論文 参考訳(メタデータ) (2025-05-26T04:08:26Z) - From Word to World: Evaluate and Mitigate Culture Bias in LLMs via Word Association Test [50.51344198689069]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好に対処するために,モデルの内部表現空間に直接,文化固有の意味的関連性を直接埋め込む革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - Cultural Learning-Based Culture Adaptation of Language Models [70.1063219524999]
大きな言語モデル(LLM)をさまざまな文化的価値に適用することは難しい課題です。
文化的学習に基づくLLMと文化的価値との整合性を高めるための新しい枠組みであるCLCAについて述べる。
論文 参考訳(メタデータ) (2025-04-03T18:16:26Z) - From No to Know: Taxonomy, Challenges, and Opportunities for Negation Understanding in Multimodal Foundation Models [48.68342037881584]
否定は、欠如、否定、矛盾を含む言語構造であり、多言語多モーダル基盤モデルにとって重要な課題である。
本稿では, 否定構造を包括的に分類し, 構造的, 意味的, 文化的要因がマルチモーダル基盤モデルにどのように影響するかを考察する。
我々は、特別なベンチマーク、言語固有のトークン化、きめ細かい注意機構、高度なマルチモーダルアーキテクチャを提唱する。
論文 参考訳(メタデータ) (2025-02-10T16:55:13Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。