論文の概要: When AI Writes, Whose Voice Remains? Quantifying Cultural Marker Erasure Across World English Varieties in Large Language Models
- arxiv url: http://arxiv.org/abs/2602.22145v1
- Date: Wed, 25 Feb 2026 17:54:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.936167
- Title: When AI Writes, Whose Voice Remains? Quantifying Cultural Marker Erasure Across World English Varieties in Large Language Models
- Title(参考訳): AIが書き残されるとき、誰が音声を残せるか? 大規模言語モデルにおける世界各国の英語の文化マーカーの消去を定量化する
- Authors: Satyam Kumar Navneet, Joydeep Chandra, Yong Zhang,
- Abstract要約: 文化ゴースト(Cultural Ghosting)とは、テキスト処理において、非ネイティブな英語の品種に特有の言語マーカーを体系的に消去することである。
我々はこの現象を、IER(Identity Erasure Rate)とSPS(Semantic Preservation Score)の2つの新しい指標を用いて定量化する。
本実験は, 明示的な文化的保存により, セマンティック品質を犠牲にすることなく, 消毒を29%削減できることを実証した。
- 参考スコア(独自算出の注目度): 6.821769033209393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used to ``professionalize'' workplace communication, often at the cost of linguistic identity. We introduce "Cultural Ghosting", the systematic erasure of linguistic markers unique to non-native English varieties during text processing. Through analysis of 22,350 LLM outputs generated from 1,490 culturally marked texts (Indian, Singaporean,& Nigerian English) processed by five models under three prompt conditions, we quantify this phenomenon using two novel metrics: Identity Erasure Rate (IER) & Semantic Preservation Score (SPS). Across all prompts, we find an overall IER of 10.26%, with model-level variation from 3.5% to 20.5% (5.9x range). Crucially, we identify a Semantic Preservation Paradox: models maintain high semantic similarity (mean SPS = 0.748) while systematically erasing cultural markers. Pragmatic markers (politeness conventions) are 1.9x more vulnerable than lexical markers (71.5% vs. 37.1% erasure). Our experiments demonstrate that explicit cultural-preservation prompts reduce erasure by 29% without sacrificing semantic quality.
- Abstract(参考訳): 大規模言語モデル (LLMs) は、職場でのコミュニケーションを「専門化」するために、しばしば言語的アイデンティティーの犠牲として使われるようになっている。
テキスト処理中に非ネイティブな英語品種に特有の言語マーカーを系統的に消去する「カルチャー・ゴーストリング」を導入する。
文化的にマークされた1,490個のテキスト(インド、シンガポール、ナイジェリア英語)を3つの迅速な条件下で処理した22,350個のLCM出力の分析を通じて、この現象を2つの新しい指標であるIER(Identity Erasure Rate)とSPS(Semantic Preservation Score)を用いて定量化する。
すべてのプロンプト全体で、全体的なIERは10.26%で、モデルレベルの変化は3.5%から20.5%(5.9倍)である。
モデルは、文化的マーカーを体系的に消去しながら、高い意味的類似性(SPS = 0.748)を維持する。
実用マーカー(政治慣習)は、語彙マーカーよりも1.9倍脆弱である(71.5%対37.1%の消去)。
本実験は, 明示的な文化的保存により, セマンティック品質を犠牲にすることなく, 消毒を29%削減できることを実証した。
関連論文リスト
- "Be My Cheese?": Cultural Nuance Benchmarking for Machine Translation in Multilingual LLMs [0.0]
本稿では,機械翻訳における文化的ローカライゼーションを評価するための大規模評価ベンチマークを提案する。
言語毎に5つのネイティブスピーカーレーダを持つ15言語を対象に,多言語大言語モデル (LLM) を7つ評価した。
GPT-5 (2.10/3)、Claude Sonnet 3.7 (1.97/3)、Mistral Medium 3.1 (1.84/3)は破滅的な失敗が少ない最強の層である。
論文 参考訳(メタデータ) (2026-02-04T16:35:48Z) - Tears or Cheers? Benchmarking LLMs via Culturally Elicited Distinct Affective Responses [28.3173238194554]
CEDARは、文化的にアンダーラインのscElicited underlinetextscDistinct underlinetextscAffective underlinetextscResponsesをキャプチャするシナリオから構築されたベンチマークである。
その結果得られたベンチマークは、7つの言語に10,962のインスタンスと14のきめ細かい感情カテゴリで構成され、各言語には400のマルチモーダルと1,166のテキストのみのサンプルが含まれている。
論文 参考訳(メタデータ) (2026-01-19T13:04:26Z) - Understanding Emotion in Discourse: Recognition Insights and Linguistic Patterns for Generation [0.36980845568339205]
認識のための10シード評価を併用した厳格なアブレーション試験を行った。
言語分析では,5,286件の談話マーカーを解析する。
感情とマーカー位置の有意な関連性を見いだす。
論文 参考訳(メタデータ) (2026-01-01T02:49:44Z) - Evaluating Modern Large Language Models on Low-Resource and Morphologically Rich Languages:A Cross-Lingual Benchmark Across Cantonese, Japanese, and Turkish [12.286855282078305]
GPT-4o, GPT-4, Claude3.5Sonnet, LLaMA3.1, MistralLarge2, LLaMA-2Chat13B, Mistral7B Instructを評価した。
我々のベンチマークは、オープンドメイン質問応答、文書要約、英語からXへの翻訳、文化的根拠のある対話の4つのタスクにまたがっている。
論文 参考訳(メタデータ) (2025-11-05T22:09:53Z) - DialectGen: Benchmarking and Improving Dialect Robustness in Multimodal Generation [111.94720088481614]
多モーダル生成モデルは方言テキスト入力を効果的に生成できるのか?
6つの共通英語方言にまたがる大規模ベンチマークを構築した。
マルチモーダル生成モデルのための一般的なエンコーダに基づく緩和戦略を設計する。
論文 参考訳(メタデータ) (2025-10-16T17:56:55Z) - COIG-Writer: A High-Quality Dataset for Chinese Creative Writing with Thought Processes [83.84578306665976]
大規模な言語モデルは、創造的な文章、特に非英語の文脈において体系的な欠陥を示す。
提案するCOIG-Writerは,多種多様なアウトプットと,その基盤となる思考プロセスの両方をキャプチャする,中国のクリエイティブな文章データセットである。
論文 参考訳(メタデータ) (2025-10-16T15:01:19Z) - How Well Do LLMs Imitate Human Writing Style? [2.3754840025365183]
大規模言語モデル(LLM)は、流動的なテキストを生成することができるが、特定の人間の作者の独特のスタイルを再現する能力は、まだ不明である。
著者の検証とスタイルの模倣分析のための,高速かつトレーニング不要なフレームワークを提案する。
学術エッセイでは97.5%、クロスドメイン評価では94.5%の精度を達成している。
論文 参考訳(メタデータ) (2025-09-29T15:34:40Z) - MMLU-ProX: A Multilingual Benchmark for Advanced Large Language Model Evaluation [86.7047714187813]
MMLU-ProXは29の言語をカバーするベンチマークであり、英語のベンチマーク上に構築されている。
それぞれの言語バージョンは11,829の同一の質問で構成されており、直接言語間比較を可能にする。
効率的な評価ニーズを満たすため,言語毎の質問数は658件である。
論文 参考訳(メタデータ) (2025-03-13T15:59:20Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - Few-shot Learning with Multilingual Language Models [66.49496434282564]
多様な言語群をカバーするバランスの取れたコーパス上で,多言語の自動回帰言語モデルを訓練する。
私たちの最大のモデルは、20以上の代表言語で数ショットの学習において、新しい最先端の技術を定めています。
本稿では,モデルがどこで成功し,失敗するかを詳細に分析し,特に言語間の文脈内学習を可能にすることを示す。
論文 参考訳(メタデータ) (2021-12-20T16:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。