論文の概要: CALM: Culturally Self-Aware Language Models
- arxiv url: http://arxiv.org/abs/2601.03483v1
- Date: Wed, 07 Jan 2026 00:28:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.100025
- Title: CALM: Culturally Self-Aware Language Models
- Title(参考訳): CALM: 文化的自己認識型言語モデル
- Authors: Lingzhi Shen, Xiaohao Cai, Yunfei Long, Imran Razzak, Guanming Chen, Shoaib Jameel,
- Abstract要約: CALMは、文化的自己認識を持つ言語モデルを支援するために設計された新しいフレームワークである。
タスクのセマンティクスを、明示的な文化的概念や潜伏した文化的シグナルから切り離す。
結果として得られた統一表現は、文化的に根ざした内的アイデンティティ状態を構築するためのモデル本来の知識と融合する。
- 参考スコア(独自算出の注目度): 22.309957211042597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cultural awareness in language models is the capacity to understand and adapt to diverse cultural contexts. However, most existing approaches treat culture as static background knowledge, overlooking its dynamic and evolving nature. This limitation reduces their reliability in downstream tasks that demand genuine cultural sensitivity. In this work, we introduce CALM, a novel framework designed to endow language models with cultural self-awareness. CALM disentangles task semantics from explicit cultural concepts and latent cultural signals, shaping them into structured cultural clusters through contrastive learning. These clusters are then aligned via cross-attention to establish fine-grained interactions among related cultural features and are adaptively integrated through a Mixture-of-Experts mechanism along culture-specific dimensions. The resulting unified representation is fused with the model's original knowledge to construct a culturally grounded internal identity state, which is further enhanced through self-prompted reflective learning, enabling continual adaptation and self-correction. Extensive experiments conducted on multiple cross-cultural benchmark datasets demonstrate that CALM consistently outperforms state-of-the-art methods.
- Abstract(参考訳): 言語モデルにおける文化的認識は、多様な文化的文脈を理解し、適応する能力である。
しかし、既存のほとんどのアプローチは、カルチャーを静的な背景知識として扱い、その動的で進化的な性質を見渡す。
この制限は、真に文化的感受性を必要とする下流のタスクにおける信頼性を低下させる。
本研究では,言語モデルに文化的自己認識を持たせるための新しいフレームワークであるCALMを紹介する。
CALMは、タスクの意味を明示的な文化的概念と潜在的な文化的信号から切り離し、対照的な学習を通じてそれらを構造化された文化的クラスターに形成する。
これらのクラスタは、クロスアテンションを通じてアライメントされ、関連する文化的特徴間のきめ細かい相互作用を確立し、文化固有の次元に沿ってMixture-of-Expertsメカニズムを通じて適応的に統合される。
結果として得られた統一表現は、文化的に根ざした内的アイデンティティ状態を構築するためのモデル本来の知識と融合し、自己プロンプトされた反射学習によってさらに強化され、継続的な適応と自己補正を可能にする。
複数のクロスカルチャーなベンチマークデータセットで実施された大規模な実験は、CALMが最先端の手法を一貫して上回っていることを示している。
関連論文リスト
- CultureScope: A Dimensional Lens for Probing Cultural Understanding in LLMs [57.653830744706305]
CultureScopeは、大規模な言語モデルにおける文化的理解を評価するための、これまでで最も包括的な評価フレームワークである。
文化的な氷山理論に触発されて、文化知識分類のための新しい次元スキーマを設計する。
実験結果から,文化的理解を効果的に評価できることが示唆された。
論文 参考訳(メタデータ) (2025-09-19T17:47:48Z) - CulFiT: A Fine-grained Cultural-aware LLM Training Paradigm via Multilingual Critique Data Synthesis [41.261808170896686]
CulFiTは、多言語データと微粒な報酬モデリングを利用して、文化的感受性と傾きを高める新しいトレーニングパラダイムである。
本手法は,文化関連諸質問を合成し,文化関連言語における批判データを構築し,文化文献を検証可能な知識単位に分解するために,きめ細かい報酬を用いる。
論文 参考訳(メタデータ) (2025-05-26T04:08:26Z) - From Word to World: Evaluate and Mitigate Culture Bias in LLMs via Word Association Test [50.51344198689069]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好に対処するために,モデルの内部表現空間に直接,文化固有の意味的関連性を直接埋め込む革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - CAReDiO: Cultural Alignment of LLM via Representativeness and Distinctiveness Guided Data Optimization [50.90288681622152]
大規模言語モデル(LLM)は、より深く様々な地域における人間の生活に統合される。
既存のアプローチは、文化固有のコーパスを微調整することで、文化的に整合したLCMを開発する。
本稿では,新しい文化データ構築フレームワークであるCAReDiOを紹介する。
論文 参考訳(メタデータ) (2025-04-09T13:40:13Z) - Cultural Learning-Based Culture Adaptation of Language Models [70.1063219524999]
大きな言語モデル(LLM)をさまざまな文化的価値に適用することは難しい課題です。
文化的学習に基づくLLMと文化的価値との整合性を高めるための新しい枠組みであるCLCAについて述べる。
論文 参考訳(メタデータ) (2025-04-03T18:16:26Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。