論文の概要: Designing LLMs for cultural sensitivity: Evidence from English-Japanese translation
- arxiv url: http://arxiv.org/abs/2509.11921v1
- Date: Mon, 15 Sep 2025 13:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.312724
- Title: Designing LLMs for cultural sensitivity: Evidence from English-Japanese translation
- Title(参考訳): 文化感性のためのLCMの設計--日英翻訳からの証拠
- Authors: Helene Tenzer, Oumnia Abidi, Stefan Feuerriegel,
- Abstract要約: 大規模言語モデル(LLM)は、日常的なコミュニケーションにますます利用されている。
我々は,職場電子メールの日英翻訳に適用された異なるLLMデザインの文化的感受性について分析した。
文化的に調整されたプロンプトは、文化的適合性を向上させることができる。
- 参考スコア(独自算出の注目度): 31.55428098109144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly used in everyday communication, including multilingual interactions across different cultural contexts. While LLMs can now generate near-perfect literal translations, it remains unclear whether LLMs support culturally appropriate communication. In this paper, we analyze the cultural sensitivity of different LLM designs when applied to English-Japanese translations of workplace e-mails. Here, we vary the prompting strategies: (1) naive "just translate" prompts, (2) audience-targeted prompts specifying the recipient's cultural background, and (3) instructional prompts with explicit guidance on Japanese communication norms. Using a mixed-methods study, we then analyze culture-specific language patterns to evaluate how well translations adapt to cultural norms. Further, we examine the appropriateness of the tone of the translations as perceived by native speakers. We find that culturally-tailored prompting can improve cultural fit, based on which we offer recommendations for designing culturally inclusive LLMs in multilingual settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な文化的文脈における多言語間相互作用を含む、日常的なコミュニケーションにますます利用されている。
LLMは、ほぼ完璧なリテラル変換を生成できるが、LLMが文化的に適切なコミュニケーションをサポートするかどうかは不明だ。
本稿では、職場電子メールの日英翻訳に適用された異なるLLMデザインの文化的感受性について分析する。
ここでは,(1)「単に翻訳する」プロンプト,(2)受取人の文化的背景を規定するオーディエンス目標プロンプト,(3)日本語のコミュニケーション規範を明示した指導プロンプト,の順に異なる。
混合手法を用いて、文化固有の言語パターンを分析し、翻訳がいかに文化規範に適応するかを評価する。
さらに,母語話者が知覚する翻訳の音調の適切性についても検討した。
文化的にカスタマイズされたプロンプトは,多言語環境下での文化的包摂的LLMの設計を推奨することに基づいて,文化的適合性を向上させることができる。
関連論文リスト
- Localized Cultural Knowledge is Conserved and Controllable in Large Language Models [20.411764699679058]
文化的な文脈を明示的に提供することで、モデルが文化的に局所的な応答を生成できる能力が大幅に向上することを示す。
しかし、明確な促進効果にもかかわらず、答えは多様性を減らし、ステレオタイプに傾向がある。
我々は、すべての非英語言語にまたがって保存された明示的な文化的カスタマイズベクターを特定し、LLMを合成英語文化世界モデルから、各非英語文化世界に向けて操ることを可能にする。
論文 参考訳(メタデータ) (2025-04-14T12:53:58Z) - Cultural Learning-Based Culture Adaptation of Language Models [70.1063219524999]
大きな言語モデル(LLM)をさまざまな文化的価値に適用することは難しい課題です。
文化的学習に基づくLLMと文化的価値との整合性を高めるための新しい枠組みであるCLCAについて述べる。
論文 参考訳(メタデータ) (2025-04-03T18:16:26Z) - Self-Alignment: Improving Alignment of Cultural Values in LLMs via In-Context Learning [20.24633389489255]
In-context Learning(ICL)とヒューマンサーベイデータを組み合わせた簡易で安価な手法を提案する。
本手法は、英語以外のテスト言語で有用であることが証明され、文化的に多種多様な国に対応する文化的価値との整合性を向上させることができる。
論文 参考訳(メタデータ) (2024-08-29T12:18:04Z) - Translating Across Cultures: LLMs for Intralingual Cultural Adaptation [12.5954253354303]
文化適応の課題を定義し,現代LLMの性能を評価するための評価枠組みを構築した。
我々は、自動適応で起こりうる問題を解析する。
本稿は, LLMの文化的理解と, 異文化のシナリオにおける創造性について, より深い知見を提供していくことを願っている。
論文 参考訳(メタデータ) (2024-06-20T17:06:58Z) - Understanding the Capabilities and Limitations of Large Language Models for Cultural Commonsense [98.09670425244462]
大規模言語モデル(LLM)は、かなりの常識的理解を示している。
本稿では,文化的コモンセンスタスクの文脈におけるいくつかの最先端LCMの能力と限界について検討する。
論文 参考訳(メタデータ) (2024-05-07T20:28:34Z) - Does Mapo Tofu Contain Coffee? Probing LLMs for Food-related Cultural Knowledge [47.57055368312541]
FmLAMA(FmLAMA)は、食品関連の文化的事実と食実践のバリエーションに着目した多言語データセットである。
我々は,LLMを様々なアーキテクチャや構成にわたって分析し,その性能を単言語と多言語の両方で評価する。
論文 参考訳(メタデータ) (2024-04-10T08:49:27Z) - Benchmarking Machine Translation with Cultural Awareness [50.183458829028226]
文化関連コンテンツの翻訳は、効果的な異文化間コミュニケーションに不可欠である。
多くの文化特化項目(CSI)は言語間の翻訳を欠いていることが多い。
この難しさは機械翻訳システムの文化的意識の分析を妨げる。
論文 参考訳(メタデータ) (2023-05-23T17:56:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。