論文の概要: From National Curricula to Cultural Awareness: Constructing Open-Ended Culture-Specific Question Answering Dataset
- arxiv url: http://arxiv.org/abs/2601.04632v1
- Date: Thu, 08 Jan 2026 06:04:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.063293
- Title: From National Curricula to Cultural Awareness: Constructing Open-Ended Culture-Specific Question Answering Dataset
- Title(参考訳): 全国カリキュラムから文化意識へ:オープンエンディングカルチャーの構築-具体的質問回答データセットの構築
- Authors: Haneul Yoo, Won Ik Cho, Geunhye Kim, Jiyoon Han,
- Abstract要約: 本稿では,文化意識管理の基盤として,国家社会学カリキュラムを活用したスケーラブルなアプローチを提案する。
韓国の社会学カリキュラムにCuCuを適用し,34.1万対のオープンエンドQAからなるKCaQAを構築した。
定量的および質的分析から,KCaQAは文化特有のトピックをカバーし,地域社会文化の文脈に根ざした応答を生み出すことが示唆された。
- 参考スコア(独自算出の注目度): 9.332032554087474
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) achieve strong performance on many tasks, but their progress remains uneven across languages and cultures, often reflecting values latent in English-centric training data. To enable practical cultural alignment, we propose a scalable approach that leverages national social studies curricula as a foundation for culture-aware supervision. We introduce CuCu, an automated multi-agent LLM framework that transforms national textbook curricula into open-ended, culture-specific question-answer pairs. Applying CuCu to the Korean national social studies curriculum, we construct KCaQA, comprising 34.1k open-ended QA pairs. Our quantitative and qualitative analyses suggest that KCaQA covers culture-specific topics and produces responses grounded in local sociocultural contexts.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くのタスクにおいて高いパフォーマンスを達成するが、その進歩は言語や文化全体で不均一であり、しばしば英語中心のトレーニングデータに潜む価値を反映している。
実践的な文化的アライメントを実現するため,文化意識の基盤として,国家社会学のカリキュラムを活用するスケーラブルなアプローチを提案する。
CuCuは,全国の教科書キュリキュラを,オープンエンドで文化固有の質問応答ペアに変換する,自動多エージェントLCMフレームワークである。
韓国の社会学カリキュラムにCuCuを適用し,34.1万対のオープンエンドQAからなるKCaQAを構築した。
定量的および質的分析から,KCaQAは文化特有のトピックをカバーし,地域社会文化の文脈に根ざした応答を生み出すことが示唆された。
関連論文リスト
- Do Large Language Models Truly Understand Cross-cultural Differences? [53.481048019144644]
我々は,大規模言語モデルの異文化間理解と推論を評価するシナリオベースのベンチマークを開発した。
文化理論を基礎として、異文化の能力を9次元に分類する。
データセットは連続的な拡張をサポートし、実験は他の言語への転送可能性を確認する。
論文 参考訳(メタデータ) (2025-12-08T01:21:58Z) - 'Too much alignment; not enough culture': Re-balancing cultural alignment practices in LLMs [0.0]
本稿では、AIアライメントプラクティスへの質的なアプローチの統合へのシフトを論じる。
クリフォード・ゲールツ(Clifford Geertz)の"thick description"の概念からインスピレーションを得たAIシステムは、より深い文化的意味を反映したアウトプットを生成する必要がある。
論文 参考訳(メタデータ) (2025-09-30T12:22:53Z) - CultureScope: A Dimensional Lens for Probing Cultural Understanding in LLMs [57.653830744706305]
CultureScopeは、大規模な言語モデルにおける文化的理解を評価するための、これまでで最も包括的な評価フレームワークである。
文化的な氷山理論に触発されて、文化知識分類のための新しい次元スキーマを設計する。
実験結果から,文化的理解を効果的に評価できることが示唆された。
論文 参考訳(メタデータ) (2025-09-19T17:47:48Z) - MCEval: A Dynamic Framework for Fair Multilingual Cultural Evaluation of LLMs [25.128936333806678]
大規模な言語モデルは、文化的バイアスと限定的な文化的理解能力を示す。
動的文化的質問構築を用いた多言語評価フレームワークであるMCEvalを提案する。
論文 参考訳(メタデータ) (2025-07-13T16:24:35Z) - CulFiT: A Fine-grained Cultural-aware LLM Training Paradigm via Multilingual Critique Data Synthesis [41.261808170896686]
CulFiTは、多言語データと微粒な報酬モデリングを利用して、文化的感受性と傾きを高める新しいトレーニングパラダイムである。
本手法は,文化関連諸質問を合成し,文化関連言語における批判データを構築し,文化文献を検証可能な知識単位に分解するために,きめ細かい報酬を用いる。
論文 参考訳(メタデータ) (2025-05-26T04:08:26Z) - Cultural Learning-Based Culture Adaptation of Language Models [70.1063219524999]
大きな言語モデル(LLM)をさまざまな文化的価値に適用することは難しい課題です。
文化的学習に基づくLLMと文化的価値との整合性を高めるための新しい枠組みであるCLCAについて述べる。
論文 参考訳(メタデータ) (2025-04-03T18:16:26Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。