論文の概要: Cross-cultural value alignment frameworks for responsible AI governance: Evidence from China-West comparative analysis
- arxiv url: http://arxiv.org/abs/2511.17256v1
- Date: Fri, 21 Nov 2025 14:02:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.053288
- Title: Cross-cultural value alignment frameworks for responsible AI governance: Evidence from China-West comparative analysis
- Title(参考訳): 責任あるAIガバナンスのための異文化的価値アライメントフレームワーク:中国と西欧の比較分析からの証拠
- Authors: Haijiang Liu, Jinguang Gu, Xun Wu, Daniel Hershcovich, Qiaoling Xiao,
- Abstract要約: 本研究は中国-オリジンと西-オリジン大言語モデル(LLM)における異文化的価値アライメントを体系的に評価する。
Qwen、GPT-4o、Claude、LLaMA、DeepSeekといった主要なモデルの比較分析により、価値体系における普遍的課題-基礎的不安定性、若年層の体系的下層表現、モデルスケールとアライメント品質の相違する地域開発軌跡の非線形関係を明らかにする。
- 参考スコア(独自算出の注目度): 20.31675378963816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) increasingly influence high-stakes decision-making across global contexts, ensuring their alignment with diverse cultural values has become a critical governance challenge. This study presents a Multi-Layered Auditing Platform for Responsible AI that systematically evaluates cross-cultural value alignment in China-origin and Western-origin LLMs through four integrated methodologies: Ethical Dilemma Corpus for assessing temporal stability, Diversity-Enhanced Framework (DEF) for quantifying cultural fidelity, First-Token Probability Alignment for distributional accuracy, and Multi-stAge Reasoning frameworK (MARK) for interpretable decision-making. Our comparative analysis of 20+ leading models, such as Qwen, GPT-4o, Claude, LLaMA, and DeepSeek, reveals universal challenges-fundamental instability in value systems, systematic under-representation of younger demographics, and non-linear relationships between model scale and alignment quality-alongside divergent regional development trajectories. While China-origin models increasingly emphasize multilingual data integration for context-specific optimization, Western models demonstrate greater architectural experimentation but persistent U.S.-centric biases. Neither paradigm achieves robust cross-cultural generalization. We establish that Mistral-series architectures significantly outperform LLaMA3-series in cross-cultural alignment, and that Full-Parameter Fine-Tuning on diverse datasets surpasses Reinforcement Learning from Human Feedback in preserving cultural variation...
- Abstract(参考訳): 大規模言語モデル(LLM)が世界規模で高い意思決定に影響を及ぼすにつれ、さまざまな文化的価値との整合性を確保することが、重要なガバナンス課題となっている。
本研究では,中国-オリジンと西-オリジンのLLMにおける相互文化的価値アライメントを,時間的安定性を評価する倫理的ジレンマコーパス,文化的忠実度を定量化するための多様性強化フレームワーク(DEF),分布的正確性を評価するためのファーストトークン確率アライメント,解釈可能な意思決定のためのMARK(Multi-stAge Reasoning frameworK)の4つの統合手法により体系的に評価する多層監査プラットフォームを提案する。
Qwen、GPT-4o、Claude、LLaMA、DeepSeekなどの20以上の先行モデルの比較分析により、価値体系における普遍的課題-基礎的不安定性、若い階層の体系的下層表現、モデルスケールとアライメント品質-アライメント地域開発軌跡の非線形関係を明らかにする。
中国-オリジンモデルは、文脈特化最適化のための多言語データ統合をますます強調する一方、西洋モデルはより優れたアーキテクチャ実験であるが、米国中心のバイアスを持続的に示している。
どちらのパラダイムも堅牢な異文化の一般化は達成しない。
クロスカルチャーアライメントにおいて、Mistral-SeriesアーキテクチャはLLaMA3シリーズを著しく上回り、多様なデータセットのフルパラメータファインチューニングは、文化的変動を保存する上で、人間のフィードバックからの強化学習を上回ることが確認された。
関連論文リスト
- Diverse Human Value Alignment for Large Language Models via Ethical Reasoning [13.406831056051034]
大規模言語モデル(LLM)は、異なる地域や文化にわたる多様な人間の価値と整合する必要がある。
現在のアライメントアプローチは、真の倫理的理解よりも表面的整合性をもたらす。
確立された倫理的意思決定モデルに触発されたLLMのための新しい倫理的推論パラダイムを提案する。
論文 参考訳(メタデータ) (2025-11-01T03:26:24Z) - MMA-ASIA: A Multilingual and Multimodal Alignment Framework for Culturally-Grounded Evaluation [91.22008265721952]
MMA-ASIAは、アジア8か国と10か国を対象とする人為的、多言語的、マルチモーダルなベンチマークに重点を置いている。
これは、テキスト、画像(視覚的質問応答)、音声の3つのモードにまたがる入力レベルで整列された最初のデータセットである。
i) 国間の文化的認識格差、(ii) 言語間の整合性、(iii) 言語間の整合性、(iv) 文化知識の一般化、(v) 基礎的妥当性を評価する5次元評価プロトコルを提案する。
論文 参考訳(メタデータ) (2025-10-07T14:12:12Z) - A Game-Theoretic Negotiation Framework for Cross-Cultural Consensus in LLMs [10.655783463895325]
大型言語モデル (LLMs) は、WEIRD (Western, Educated, Industrialized, Rich, Democratic) の文化的偏見を示す。
この単文化的な観点は、支配的な価値観を強化し、多様な文化的視点を疎外する可能性がある。
公正で堅牢な異文化間の合意を促進するために設計された体系的枠組みを導入する。
論文 参考訳(メタデータ) (2025-06-16T08:42:39Z) - Multimodal Cultural Safety: Evaluation Frameworks and Alignment Strategies [58.88053690412802]
大規模視覚言語モデル(LVLM)は、観光アシスタントのようなグローバルに分散したアプリケーションにますます導入されている。
CROSSは、LVLMの文化的安全性推論能力を評価するために設計されたベンチマークである。
実験モデルと推論モデルを含む21種類のLVLMを評価した。
論文 参考訳(メタデータ) (2025-05-20T23:20:38Z) - WorldView-Bench: A Benchmark for Evaluating Global Cultural Perspectives in Large Language Models [1.094065133109559]
大規模言語モデル(LLM)は、西洋中心の認識論と社会文化的規範を強化する方法で主に訓練され、整列されている。
多様な世界観に対応する能力を分析し,LLMにおけるグローバルカルチャー・インクルーシティ(GCI)を評価するためのベンチマークであるWorldView-Benchを紹介する。
論文 参考訳(メタデータ) (2025-05-14T17:43:40Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - ValuesRAG: Enhancing Cultural Alignment Through Retrieval-Augmented Contextual Learning [1.1343849658875087]
ValuesRAGは、テキスト生成中に文化的および人口統計学的知識を動的に統合する新しいフレームワークである。
本研究では,6つの地域データセットを用いてValuesRAGを評価し,ベースラインを一貫して上回ることを示す。
本研究は,グローバルLLM能力と局所文化的価値のギャップを埋める動的検索手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-01-02T03:26:13Z) - Global MMLU: Understanding and Addressing Cultural and Linguistic Biases in Multilingual Evaluation [71.59208664920452]
多言語データセットの文化的バイアスは、グローバルベンチマークとしての有効性に重大な課題をもたらす。
MMLUの進歩は西洋中心の概念の学習に大きく依存しており、文化に敏感な知識を必要とする質問の28%がそうである。
改良されたMMLUであるGlobal MMLUをリリースし,42言語を対象に評価を行った。
論文 参考訳(メタデータ) (2024-12-04T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。