論文の概要: AdaCultureSafe: Adaptive Cultural Safety Grounded by Cultural Knowledge in Large Language Models
- arxiv url: http://arxiv.org/abs/2603.08275v1
- Date: Mon, 09 Mar 2026 11:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.890326
- Title: AdaCultureSafe: Adaptive Cultural Safety Grounded by Cultural Knowledge in Large Language Models
- Title(参考訳): AdaCultureSafe:大規模言語モデルにおける文化的知識に基づく適応的文化安全
- Authors: Hankun Kang, Di Lin, Zhirong Liao, Pengfei Bai, Xinyi Zeng, Jiawei Jiang, Yuanyuan Zhu, Tieyun Qian,
- Abstract要約: 既存の研究は、文化の安全と文化の知識を別々に検討し、前者が後者に根ざすべきことを無視している。
我々は文化的安全性と知識を共同でモデル化することを提案する。
この問題に対処するために、権威ある文化的知識記述のキュレーション、LLM自動クエリ生成、重い手動検証を統合した新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.813307226132128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the widespread adoption of Large Language Models (LLMs), respecting indigenous cultures becomes essential for models' culturally safety and responsible global applications. Existing studies separately consider cultural safety and cultural knowledge and neglect that the former should be grounded by the latter. This severely prevents LLMs from yielding culture-specific respectful responses. Consequently, adaptive cultural safety remains a formidable task. In this work, we propose to jointly model cultural safety and knowledge. First and foremost, cultural-safety and knowledge-paired data serve as the key prerequisite to conduct this research. However, the cultural diversity across regions and the subtlety of cultural differences pose significant challenges to the creation of such paired evaluation data. To address this issue, we propose a novel framework that integrates authoritative cultural knowledge descriptions curation, LLM-automated query generation, and heavy manual verification. Accordingly, we obtain a dataset named AdaCultureSafe containing 4.8K manually decomposed fine-grained cultural descriptions and the corresponding 48K manually verified safety- and knowledge-oriented queries. Upon the constructed dataset, we evaluate three families of popular LLMs on their cultural safety and knowledge proficiency, via which we make a critical discovery: no significant correlation exists between their cultural safety and knowledge proficiency. We then delve into the utility-related neuron activations within LLMs to investigate the potential cause of the absence of correlation, which can be attributed to the difference of the objectives of pre-training and post-alignment. We finally present a knowledge-grounded method, which significantly enhances cultural safety by enforcing the integration of knowledge into the LLM response generation process.
- Abstract(参考訳): LLM(Large Language Models)が広く採用されるようになると、モデルの文化的安全性と責任あるグローバルな応用には、先住民文化の尊重が不可欠となる。
既存の研究は、文化の安全と文化の知識を別々に検討し、前者が後者に根ざすべきことを無視している。
これにより、LDMが培養特異的な敬意の反応を生じさせるのを著しく防ぐ。
そのため、適応的な文化の安全は依然として厳しい課題である。
本研究では,文化の安全性と知識を共同でモデル化することを提案する。
まず第一に、文化的安全と知識に恵まれたデータが、この研究を行うための重要な前提条件となっている。
しかし、地域ごとの文化的多様性と文化差の微妙さは、このような組み合わせ評価データの作成に重大な課題をもたらす。
この問題に対処するために、権威ある文化的知識記述のキュレーション、LLM自動クエリ生成、重い手動検証を統合した新しいフレームワークを提案する。
そこで我々はAdaCultureSafeという名前のデータセットを入手し、4.8Kの詳細な文化的記述と、それに対応する48Kの安全性および知識指向のクエリを手作業で検証した。
構築されたデータセットでは,LLMの文化的安全性と知識の熟練度を3つのファミリーで評価し,その上で重要な発見を行う: 文化の安全性と知識の熟練度の間に有意な相関は存在しない。
次に、LCM内の実用性関連ニューロン活性化を探索し、相関の欠如の潜在的な原因について検討する。
最終的に,LLM応答生成プロセスに知識を統合することにより,文化的安全性を著しく向上させる知識接地手法を提案する。
関連論文リスト
- Mind the Gap in Cultural Alignment: Task-Aware Culture Management for Large Language Models [78.19037585302475]
大規模言語モデル(LLM)は、文化的に敏感な現実世界のタスクにますますデプロイされている。
既存の文化的アライメントアプローチは、LLMの幅広い文化的価値を下流タスクの特定の目標と整合させることができない。
タスク固有の文化的アライメントのための新しいパイプラインであるCultureManagerを提案する。
論文 参考訳(メタデータ) (2026-02-25T23:27:18Z) - LLMs as Cultural Archives: Cultural Commonsense Knowledge Graph Extraction [57.23766971626989]
大規模言語モデル(LLM)は、多様なWebスケールデータから学んだ豊富な文化的知識を符号化する。
文化常識知識グラフ(CCKG)構築のための反復的,即時的枠組みを提案する。
対象文化が英語ではない場合でも、文化知識グラフは英語でよりよく認識されている。
論文 参考訳(メタデータ) (2026-01-25T20:05:04Z) - CultureScope: A Dimensional Lens for Probing Cultural Understanding in LLMs [57.653830744706305]
CultureScopeは、大規模な言語モデルにおける文化的理解を評価するための、これまでで最も包括的な評価フレームワークである。
文化的な氷山理論に触発されて、文化知識分類のための新しい次元スキーマを設計する。
実験結果から,文化的理解を効果的に評価できることが示唆された。
論文 参考訳(メタデータ) (2025-09-19T17:47:48Z) - From Surveys to Narratives: Rethinking Cultural Value Adaptation in LLMs [62.9861554207279]
LLM(Large Language Models)における文化的価値の適応は大きな課題である。
これまでの作業は主に、World Values Survey (WVS)データを使用して、LLMをさまざまな文化的価値と整合させる。
我々は,文化価値適応のためのWVSベースのトレーニングについて検討し,調査データのみに頼って文化規範を実践し,事実知識に干渉することを発見した。
論文 参考訳(メタデータ) (2025-05-22T09:00:01Z) - CAReDiO: Cultural Alignment of LLM via Representativeness and Distinctiveness Guided Data Optimization [50.90288681622152]
大規模言語モデル(LLM)は、より深く様々な地域における人間の生活に統合される。
既存のアプローチは、文化固有のコーパスを微調整することで、文化的に整合したLCMを開発する。
本稿では,新しい文化データ構築フレームワークであるCAReDiOを紹介する。
論文 参考訳(メタデータ) (2025-04-09T13:40:13Z) - Cultural Learning-Based Culture Adaptation of Language Models [70.1063219524999]
大きな言語モデル(LLM)をさまざまな文化的価値に適用することは難しい課題です。
文化的学習に基づくLLMと文化的価値との整合性を高めるための新しい枠組みであるCLCAについて述べる。
論文 参考訳(メタデータ) (2025-04-03T18:16:26Z) - An Investigation into Value Misalignment in LLM-Generated Texts for Cultural Heritage [5.893281327912503]
大型言語モデル(LLM)は、文化遺産に関連するタスクでますます普及している。
古文書の翻訳、口伝の保存、教育内容の制作など、歴史的記念物の記述を作成するのに用いられる。
しかし、歴史的事実の誤表現、文化的なアイデンティティの侵食、複雑な文化的な物語の単純化など、文化的な価値の誤認識は発生した文献に存在している可能性がある。
論文 参考訳(メタデータ) (2025-01-03T14:35:32Z) - Navigating the Cultural Kaleidoscope: A Hitchhiker's Guide to Sensitivity in Large Language Models [4.771099208181585]
LLMはますますグローバルなアプリケーションにデプロイされ、さまざまなバックグラウンドを持つユーザが尊敬され、理解されることが保証される。
文化的な害は、これらのモデルが特定の文化的規範と一致しないときに起こり、文化的な価値観の誤った表現や違反をもたらす。
潜在的な文化的不感を露呈するシナリオを通じて、異なる文化的文脈におけるモデルアウトプットを評価するために作成された文化的調和テストデータセットと、多様なアノテータからのフィードバックに基づいた微調整による文化的感受性の回復を目的とした、文化的に整合した選好データセットである。
論文 参考訳(メタデータ) (2024-10-15T18:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。