論文の概要: Mathematics Isn't Culture-Free: Probing Cultural Gaps via Entity and Scenario Perturbations
- arxiv url: http://arxiv.org/abs/2507.00883v1
- Date: Tue, 01 Jul 2025 15:51:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.712497
- Title: Mathematics Isn't Culture-Free: Probing Cultural Gaps via Entity and Scenario Perturbations
- Title(参考訳): 数学は文化的自由ではない - エンティティとシナリオの摂動による文化的ギャップの探索
- Authors: Aditya Tomar, Nihar Ranjan Sahoo, Ashish Mittal, Rudra Murthy, Pushpak Bhattacharyya,
- Abstract要約: 我々は,アフリカ,インド,中国,韓国,日本5地域を対象としたGSM8Kテストセットの文化的適応版を作成している。
8Bから72Bパラメータの6つの大言語モデル (LLM) を評価する。
- 参考スコア(独自算出の注目度): 32.04983282554752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although mathematics is often considered culturally neutral, the way mathematical problems are presented can carry implicit cultural context. Existing benchmarks like GSM8K are predominantly rooted in Western norms, including names, currencies, and everyday scenarios. In this work, we create culturally adapted variants of the GSM8K test set for five regions Africa, India, China, Korea, and Japan using prompt-based transformations followed by manual verification. We evaluate six large language models (LLMs), ranging from 8B to 72B parameters, across five prompting strategies to assess their robustness to cultural variation in math problem presentation. Our findings reveal a consistent performance gap: models perform best on the original US-centric dataset and comparatively worse on culturally adapted versions. However, models with reasoning capabilities are more resilient to these shifts, suggesting that deeper reasoning helps bridge cultural presentation gaps in mathematical tasks
- Abstract(参考訳): 数学はしばしば文化的に中立であると考えられているが、数学の問題の提示方法には暗黙の文化的文脈がある。
GSM8Kのような既存のベンチマークは、名前や通貨、日々のシナリオなど、主に西洋標準に根ざしている。
本研究では,アフリカ,インド,中国,韓国,日本5地域を対象としたGSM8Kテストセットの文化的に適応した変種を作成し,その後手動検証を行った。
8Bから72Bパラメータの6つの大言語モデル (LLM) を評価する。
モデルは元々の米国中心のデータセットで最高のパフォーマンスを示し、文化に適応したバージョンでは比較的悪くなります。
しかし、推論能力を持つモデルはこれらのシフトに対してより弾力性があり、より深い推論が数学的タスクにおける文化的プレゼンテーションギャップを橋渡しすることに役立つことを示唆している。
関連論文リスト
- CaMMT: Benchmarking Culturally Aware Multimodal Machine Translation [25.213316704661352]
本稿では,5800枚以上の画像のベンチマークであるCaMMTと,英語と地域語でのパラレルキャプションを紹介する。
視覚的文脈は一般的に翻訳の質を向上し、特に文化特色項目(CSI)を扱い、性別の使い方を正す。
論文 参考訳(メタデータ) (2025-05-30T10:42:44Z) - Fluent but Culturally Distant: Can Regional Training Teach Cultural Understanding? [17.231806929840015]
我々は,5つの指標と5つのグローバルLLMを,価値と実践の2つの重要な側面に沿って評価する。
すべての4つのタスクにおいて、Indicモデルはグローバルモデルよりもインド文化の規範と密に一致していないことが分かる。
この失敗は、高品質で、翻訳されず、文化的に根拠のない事前訓練と微調整のデータが不足していることに遡る。
論文 参考訳(メタデータ) (2025-05-25T01:59:23Z) - Lost in Cultural Translation: Do LLMs Struggle with Math Across Cultural Contexts? [0.7329170469548214]
本研究では,Large Language Models (LLMs) の数学的推論能力に対する文化的文脈の影響を明らかにする。
この結果から, LLMは, 基礎となる数学的構造が一定であっても, 文化的参照が変化しても数学問題に苦しむことが明らかとなった。
明確な数学的訓練を持たないモデルであっても、関連する文化的文脈への露出は、文化的に埋め込まれた数学問題において、より大きく、数学的に熟練したモデルよりも優れることがある。
論文 参考訳(メタデータ) (2025-03-23T10:35:39Z) - CulturePark: Boosting Cross-cultural Understanding in Large Language Models [63.452948673344395]
本稿では,LLMを利用した文化データ収集のためのマルチエージェント通信フレームワークであるCultureParkを紹介する。
人間の信念、規範、習慣をカプセル化した高品質な異文化対話を生成する。
我々はこれらのモデルを,コンテンツモデレーション,文化的アライメント,文化教育という3つの下流課題にまたがって評価する。
論文 参考訳(メタデータ) (2024-05-24T01:49:02Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。