論文の概要: On The Conceptualization and Societal Impact of Cross-Cultural Bias
- arxiv url: http://arxiv.org/abs/2512.21809v1
- Date: Fri, 26 Dec 2025 00:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 20:48:41.98907
- Title: On The Conceptualization and Societal Impact of Cross-Cultural Bias
- Title(参考訳): クロスカルチャーバイアスの概念化と社会への影響について
- Authors: Vitthal Bhandari,
- Abstract要約: 自然言語処理(NLP)における文化的偏見の同定と評価に関する最近の文献の分析に取り組んだ。
2025年に発表された20の論文を取り上げ、NLP研究者がバイアスを具体的に概念化し、その影響を効果的に評価できるように、一連の観察を思いついた。
私が目指すのは、異文化間の偏見を示す言語技術の社会的影響をしっかりと評価することです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research has shown that while large language models (LLMs) can generate their responses based on cultural context, they are not perfect and tend to generalize across cultures. However, when evaluating the cultural bias of a language technology on any dataset, researchers may choose not to engage with stakeholders actually using that technology in real life, which evades the very fundamental problem they set out to address. Inspired by the work done by arXiv:2005.14050v2, I set out to analyse recent literature about identifying and evaluating cultural bias in Natural Language Processing (NLP). I picked out 20 papers published in 2025 about cultural bias and came up with a set of observations to allow NLP researchers in the future to conceptualize bias concretely and evaluate its harms effectively. My aim is to advocate for a robust assessment of the societal impact of language technologies exhibiting cross-cultural bias.
- Abstract(参考訳): 研究によると、大きな言語モデル(LLM)は、文化的文脈に基づいて応答を生成できるが、それらは完璧ではなく、文化全体にわたって一般化する傾向がある。
しかし、どんなデータセット上でも、言語技術の文化的バイアスを評価する際、研究者は、実際にその技術を使っているステークホルダーと実際の生活で関わらないことを選択できる。
arXiv:2005.14050v2の成果に触発されて、自然言語処理(NLP)における文化的バイアスの特定と評価に関する最近の文献を分析した。
2025年に発表された20の論文を取り上げて、NLP研究者がバイアスを具体的に概念化し、その影響を効果的に評価できるように、一連の観察を思いついた。
私が目指すのは、異文化間の偏見を示す言語技術の社会的影響をしっかりと評価することです。
関連論文リスト
- Identity-Aware Large Language Models require Cultural Reasoning [3.1866496693431934]
我々は文化的な推論を、文化固有の知識価値と社会的規範を認識するためのモデルの能力として定義する。
文化は解釈、感情的共鳴、許容される行動を形成するため、文化的推論はアイデンティティを意識するAIにとって不可欠である。
文化的推論は、事実的正確性や言語的一貫性とともに基礎的な能力として扱われなければならないと我々は主張する。
論文 参考訳(メタデータ) (2025-10-21T10:50:51Z) - Culture is Everywhere: A Call for Intentionally Cultural Evaluation [36.20861746863831]
文献的文化的評価について論じる: 評価のあらゆる側面に埋め込まれた文化的仮定を体系的に検証するアプローチ。
我々は、現在のベンチマークプラクティスを超えて、意味と今後の方向性について議論する。
論文 参考訳(メタデータ) (2025-09-01T09:39:21Z) - CAIRe: Cultural Attribution of Images by Retrieval-Augmented Evaluation [61.130639734982395]
本稿では,画像の文化的関連度を評価する新しい評価指標であるCAIReを紹介する。
本フレームワークは,イメージ内の実体と概念を知識ベースに基盤として,実情報を用いて各文化ラベルに対して独立した評価を行う。
論文 参考訳(メタデータ) (2025-06-10T17:16:23Z) - Research Borderlands: Analysing Writing Across Research Cultures [9.863675790023589]
我々は、言語に基づく文化規範を発見し、測定するために、人間中心のアプローチを取る。
私たちは1つの文化、研究文化、そして1つのタスクに集中し、研究文化にまたがって文章を適応させます。
論文 参考訳(メタデータ) (2025-06-01T02:23:55Z) - From Word to World: Evaluate and Mitigate Culture Bias in LLMs via Word Association Test [50.51344198689069]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好に対処するために,モデルの内部表現空間に直接,文化固有の意味的関連性を直接埋め込む革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - From Surveys to Narratives: Rethinking Cultural Value Adaptation in LLMs [62.9861554207279]
LLM(Large Language Models)における文化的価値の適応は大きな課題である。
これまでの作業は主に、World Values Survey (WVS)データを使用して、LLMをさまざまな文化的価値と整合させる。
我々は,文化価値適応のためのWVSベースのトレーニングについて検討し,調査データのみに頼って文化規範を実践し,事実知識に干渉することを発見した。
論文 参考訳(メタデータ) (2025-05-22T09:00:01Z) - Risks of Cultural Erasure in Large Language Models [4.613949381428196]
我々は,歴史的権力不平等を疑問視し,考慮する言語技術の量化可能な評価の必要性を論じる。
我々は、言語モデルがこれらの文脈を記述するよう依頼されたとき、世界中の様々な場所で生成する表現を探索する。
言語モデルアプリケーションを用いて,旅行レコメンデーションに表される文化を分析した。
論文 参考訳(メタデータ) (2025-01-02T04:57:50Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Cultural Bias and Cultural Alignment of Large Language Models [0.9374652839580183]
広く使われている5つの大言語モデルに対して,文化的偏見の分散評価を行う。
全てのモデルは、英語とプロテスタントのヨーロッパ諸国に似た文化的価値を示す。
生成AIの出力における文化的バイアスを軽減するために,文化的なプロンプトと継続的な評価を用いることを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - Unmasking Nationality Bias: A Study of Human Perception of Nationalities
in AI-Generated Articles [10.8637226966191]
自然言語処理(NLP)モデルにおける国籍バイアスの可能性について,人間の評価手法を用いて検討した。
本研究は、テキスト生成モデルにおける国籍バイアスの影響を識別し、理解するために、2段階の混合手法を用いている。
以上の結果から,NLPモデルでは既存の社会的バイアスを再現・増幅する傾向があり,社会工学的な場面で使用すれば害につながる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-08T15:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。