論文の概要: On The Conceptualization and Societal Impact of Cross-Cultural Bias
- arxiv url: http://arxiv.org/abs/2512.21809v1
- Date: Fri, 26 Dec 2025 00:27:53 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:55:21.792585
- Title: On The Conceptualization and Societal Impact of Cross-Cultural Bias
- Title(参考訳): クロスカルチャーバイアスの概念化と社会への影響について
- Authors: Vitthal Bhandari,
- Abstract要約: 自然言語処理(NLP)における文化的偏見の同定と評価に関する最近の文献の分析に取り組んだ。
2025年に発表された20の論文を取り上げ、NLP研究者がバイアスを具体的に概念化し、その影響を効果的に評価できるように、一連の観察を思いついた。
私が目指すのは、異文化間の偏見を示す言語技術の社会的影響をしっかりと評価することです。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Research has shown that while large language models (LLMs) can generate their responses based on cultural context, they are not perfect and tend to generalize across cultures. However, when evaluating the cultural bias of a language technology on any dataset, researchers may choose not to engage with stakeholders actually using that technology in real life, which evades the very fundamental problem they set out to address. Inspired by the work done by arXiv:2005.14050v2, I set out to analyse recent literature about identifying and evaluating cultural bias in Natural Language Processing (NLP). I picked out 20 papers published in 2025 about cultural bias and came up with a set of observations to allow NLP researchers in the future to conceptualize bias concretely and evaluate its harms effectively. My aim is to advocate for a robust assessment of the societal impact of language technologies exhibiting cross-cultural bias.
- Abstract(参考訳): 研究によると、大きな言語モデル(LLM)は、文化的文脈に基づいて応答を生成できるが、それらは完璧ではなく、文化全体にわたって一般化する傾向がある。
しかし、どんなデータセット上でも、言語技術の文化的バイアスを評価する際、研究者は、実際にその技術を使っているステークホルダーと実際の生活で関わらないことを選択できる。
arXiv:2005.14050v2の成果に触発されて、自然言語処理(NLP)における文化的バイアスの特定と評価に関する最近の文献を分析した。
2025年に発表された20の論文を取り上げて、NLP研究者がバイアスを具体的に概念化し、その影響を効果的に評価できるように、一連の観察を思いついた。
私が目指すのは、異文化間の偏見を示す言語技術の社会的影響をしっかりと評価することです。
関連論文リスト
- Culture is Everywhere: A Call for Intentionally Cultural Evaluation [36.20861746863831]
文献的文化的評価について論じる: 評価のあらゆる側面に埋め込まれた文化的仮定を体系的に検証するアプローチ。
我々は、現在のベンチマークプラクティスを超えて、意味と今後の方向性について議論する。
論文 参考訳(メタデータ) (2025-09-01T09:39:21Z) - CAIRe: Cultural Attribution of Images by Retrieval-Augmented Evaluation [61.130639734982395]
本稿では,画像の文化的関連度を評価する新しい評価指標であるCAIReを紹介する。
本フレームワークは,イメージ内の実体と概念を知識ベースに基盤として,実情報を用いて各文化ラベルに対して独立した評価を行う。
論文 参考訳(メタデータ) (2025-06-10T17:16:23Z) - Research Borderlands: Analysing Writing Across Research Cultures [9.863675790023589]
我々は、言語に基づく文化規範を発見し、測定するために、人間中心のアプローチを取る。
私たちは1つの文化、研究文化、そして1つのタスクに集中し、研究文化にまたがって文章を適応させます。
論文 参考訳(メタデータ) (2025-06-01T02:23:55Z) - From Surveys to Narratives: Rethinking Cultural Value Adaptation in LLMs [62.9861554207279]
LLM(Large Language Models)における文化的価値の適応は大きな課題である。
これまでの作業は主に、World Values Survey (WVS)データを使用して、LLMをさまざまな文化的価値と整合させる。
我々は,文化価値適応のためのWVSベースのトレーニングについて検討し,調査データのみに頼って文化規範を実践し,事実知識に干渉することを発見した。
論文 参考訳(メタデータ) (2025-05-22T09:00:01Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Cultural Bias and Cultural Alignment of Large Language Models [0.9374652839580183]
広く使われている5つの大言語モデルに対して,文化的偏見の分散評価を行う。
全てのモデルは、英語とプロテスタントのヨーロッパ諸国に似た文化的価値を示す。
生成AIの出力における文化的バイアスを軽減するために,文化的なプロンプトと継続的な評価を用いることを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。