論文の概要: Identity-Aware Large Language Models require Cultural Reasoning
- arxiv url: http://arxiv.org/abs/2510.18510v1
- Date: Tue, 21 Oct 2025 10:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.435225
- Title: Identity-Aware Large Language Models require Cultural Reasoning
- Title(参考訳): アイデンティティを意識した大規模言語モデルには文化的推論が必要である
- Authors: Alistair Plum, Anne-Marie Lutgen, Christoph Purschke, Achim Rettinger,
- Abstract要約: 我々は文化的な推論を、文化固有の知識価値と社会的規範を認識するためのモデルの能力として定義する。
文化は解釈、感情的共鳴、許容される行動を形成するため、文化的推論はアイデンティティを意識するAIにとって不可欠である。
文化的推論は、事実的正確性や言語的一貫性とともに基礎的な能力として扱われなければならないと我々は主張する。
- 参考スコア(独自算出の注目度): 3.1866496693431934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have become the latest trend in natural language processing, heavily featuring in the digital tools we use every day. However, their replies often reflect a narrow cultural viewpoint that overlooks the diversity of global users. This missing capability could be referred to as cultural reasoning, which we define here as the capacity of a model to recognise culture-specific knowledge values and social norms, and to adjust its output so that it aligns with the expectations of individual users. Because culture shapes interpretation, emotional resonance, and acceptable behaviour, cultural reasoning is essential for identity-aware AI. When this capacity is limited or absent, models can sustain stereotypes, ignore minority perspectives, erode trust, and perpetuate hate. Recent empirical studies strongly suggest that current models default to Western norms when judging moral dilemmas, interpreting idioms, or offering advice, and that fine-tuning on survey data only partly reduces this tendency. The present evaluation methods mainly report static accuracy scores and thus fail to capture adaptive reasoning in context. Although broader datasets can help, they cannot alone ensure genuine cultural competence. Therefore, we argue that cultural reasoning must be treated as a foundational capability alongside factual accuracy and linguistic coherence. By clarifying the concept and outlining initial directions for its assessment, a foundation is laid for future systems to be able to respond with greater sensitivity to the complex fabric of human culture.
- Abstract(参考訳): 大規模な言語モデルは、我々が毎日使っているデジタルツールに特化して、自然言語処理の最新のトレンドになっている。
しかし、その回答は、世界のユーザの多様性を見落としている、狭い文化的視点を反映することが多い。
この欠落した能力は、文化的な推論と呼ばれ、ここでは、文化固有の知識価値と社会的規範を認識し、個々のユーザの期待に合致するようにその出力を調整するためのモデルの能力と定義する。
文化は解釈、感情的共鳴、許容される行動を形成するため、文化的推論はアイデンティティを意識するAIにとって不可欠である。
この能力が限定的または欠如している場合、モデルはステレオタイプを維持し、少数派視点を無視し、信頼を失わせ、憎しみを持続させることができる。
最近の実証研究は、現在のモデルは道徳的ジレンマを判断したり、イディオムを解釈したり、アドバイスを提供したりする際に、西洋の規範にデフォルトがあることを強く示唆している。
本評価法は主に静的な精度のスコアを報告し,適応的推論を文脈で捉えるのに失敗する。
より広いデータセットは役に立つが、真の文化的能力を保証することは不可能だ。
したがって,文化的推論は,事実的正確性や言語的一貫性とともに基礎的能力として扱わなければならない。
概念を明確にし、その評価の方向性を概説することにより、将来のシステムは人間の文化の複雑な織物に対してより敏感に反応できる基盤を築き上げている。
関連論文リスト
- CultureScope: A Dimensional Lens for Probing Cultural Understanding in LLMs [57.653830744706305]
CultureScopeは、大規模な言語モデルにおける文化的理解を評価するための、これまでで最も包括的な評価フレームワークである。
文化的な氷山理論に触発されて、文化知識分類のための新しい次元スキーマを設計する。
実験結果から,文化的理解を効果的に評価できることが示唆された。
論文 参考訳(メタデータ) (2025-09-19T17:47:48Z) - Risks of Cultural Erasure in Large Language Models [4.613949381428196]
我々は,歴史的権力不平等を疑問視し,考慮する言語技術の量化可能な評価の必要性を論じる。
我々は、言語モデルがこれらの文脈を記述するよう依頼されたとき、世界中の様々な場所で生成する表現を探索する。
言語モデルアプリケーションを用いて,旅行レコメンデーションに表される文化を分析した。
論文 参考訳(メタデータ) (2025-01-02T04:57:50Z) - Navigating the Cultural Kaleidoscope: A Hitchhiker's Guide to Sensitivity in Large Language Models [4.771099208181585]
LLMはますますグローバルなアプリケーションにデプロイされ、さまざまなバックグラウンドを持つユーザが尊敬され、理解されることが保証される。
文化的な害は、これらのモデルが特定の文化的規範と一致しないときに起こり、文化的な価値観の誤った表現や違反をもたらす。
潜在的な文化的不感を露呈するシナリオを通じて、異なる文化的文脈におけるモデルアウトプットを評価するために作成された文化的調和テストデータセットと、多様なアノテータからのフィードバックに基づいた微調整による文化的感受性の回復を目的とした、文化的に整合した選好データセットである。
論文 参考訳(メタデータ) (2024-10-15T18:13:10Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - Cultural Bias and Cultural Alignment of Large Language Models [0.9374652839580183]
広く使われている5つの大言語モデルに対して,文化的偏見の分散評価を行う。
全てのモデルは、英語とプロテスタントのヨーロッパ諸国に似た文化的価値を示す。
生成AIの出力における文化的バイアスを軽減するために,文化的なプロンプトと継続的な評価を用いることを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。