論文の概要: Towards Style Alignment in Cross-Cultural Translation
- arxiv url: http://arxiv.org/abs/2507.00216v1
- Date: Mon, 30 Jun 2025 19:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.730546
- Title: Towards Style Alignment in Cross-Cultural Translation
- Title(参考訳): 異文化間翻訳におけるスタイルアライメントに向けて
- Authors: Shreya Havaldar, Adam Stein, Eric Wong, Lyle Ungar,
- Abstract要約: コミュニケーションの成功は、話者の意図したスタイル(すなわち、話者が伝えようとしているもの)とリスナーの解釈されたスタイル(すなわち、リスナーが知覚するもの)に依存する。
LLMは、中立性に偏り、非西洋言語でより悪い翻訳を行うという、スタイルの翻訳に失敗する。
RASTA(Retrieval-Augmented Staylistic Alignment)は,学習スタイルの概念を活用してLLM翻訳を奨励し,文化的コミュニケーション規範を適切に伝達し,スタイルを整合させる手法である。
- 参考スコア(独自算出の注目度): 15.3431818141129
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Successful communication depends on the speaker's intended style (i.e., what the speaker is trying to convey) aligning with the listener's interpreted style (i.e., what the listener perceives). However, cultural differences often lead to misalignment between the two; for example, politeness is often lost in translation. We characterize the ways that LLMs fail to translate style - biasing translations towards neutrality and performing worse in non-Western languages. We mitigate these failures with RASTA (Retrieval-Augmented STylistic Alignment), a method that leverages learned stylistic concepts to encourage LLM translation to appropriately convey cultural communication norms and align style.
- Abstract(参考訳): コミュニケーションの成功は、話者の意図したスタイル(すなわち、話者が伝えようとしているもの)とリスナーの解釈されたスタイル(すなわち、リスナーが知覚するもの)に依存する。
しかし、文化的な違いはしばしば両者の相違を招き、例えば、丁寧さはしばしば翻訳で失われる。
我々は、LLMがスタイルの翻訳に失敗するのを特徴付け、非西洋言語で翻訳を中立性に偏り、さらに悪い結果をもたらす。
RASTA(Retrieval-Augmented Staylistic Alignment)は,学習スタイルの概念を活用してLLM翻訳を奨励し,文化的コミュニケーション規範を適切に伝達し,スタイルを整合させる手法である。
関連論文リスト
- Lost in Literalism: How Supervised Training Shapes Translationese in LLMs [51.04435855143767]
大規模言語モデル(LLM)は機械翻訳において顕著な成功を収めた。
しかし、過度にリテラルと不自然な翻訳を特徴とする翻訳は、依然として永続的な課題である。
我々は、黄金の基準を磨き、不自然なトレーニングインスタンスをフィルタリングするなど、これらのバイアスを軽減する方法を導入する。
論文 参考訳(メタデータ) (2025-03-06T12:14:45Z) - Jawaher: A Multidialectal Dataset of Arabic Proverbs for LLM Benchmarking [12.078532717928185]
大型言語モデル(LLM)は、西洋文化、アングロ・セントリック文化、アメリカ文化への偏見を示し続けている。
我々は、アラビア語の証明を理解し解釈するLLMの能力を評価するために設計されたベンチマークであるJawaherを紹介する。
LLMは慣用的に正確な翻訳を生成できるが、文化的にニュアンスで文脈的に関係のある説明を生み出すのに苦労している。
論文 参考訳(メタデータ) (2025-02-28T22:28:00Z) - See It from My Perspective: How Language Affects Cultural Bias in Image Understanding [60.70852566256668]
視覚言語モデル(VLM)は、多くの言語における画像に関するクエリに応答することができる。
画像理解におけるVLMの西洋的偏見を特徴付け,この格差の中で言語が果たす役割について検討する。
論文 参考訳(メタデータ) (2024-06-17T15:49:51Z) - Fine-Tuning Large Language Models to Translate: Will a Touch of Noisy Data in Misaligned Languages Suffice? [33.376648335299116]
大きな言語モデル(LLM)は、32のパラレル文で微調整された後、強い翻訳能力を示す。
英語のみを対象とするLLMは、非英語への翻訳を妨げるタスクの誤解釈につながる可能性がある。
未表現言語で合成されたデータは、顕著な効果が低い。
論文 参考訳(メタデータ) (2024-04-22T12:21:12Z) - Advancing Large Language Models to Capture Varied Speaking Styles and Respond Properly in Spoken Conversations [65.29513437838457]
現在の2つの旋回が同じ文であっても、異なるスタイルで話されるときの応答は相変わらず異なる。
本稿では,言語内容と発話スタイルをモデル化できるSpken-LLMフレームワークを提案する。
StyleTalkデータセットを使用してSpoken-LLMをトレーニングし、Spoken-LLMが話し方を学ぶのに役立つ2段階のトレーニングパイプラインを作成します。
論文 参考訳(メタデータ) (2024-02-20T07:51:43Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - Do Context-Aware Translation Models Pay the Right Attention? [61.25804242929533]
コンテキスト対応機械翻訳モデルは文脈情報を活用するように設計されているが、しばしば失敗する。
本稿では,人間の翻訳者が曖昧な単語を解くために使用する文脈について述べる。
SCAT(Supporting Context for Ambiguous Translations)は、14K翻訳のコンテキストワードをサポートする新しい英仏データセットです。
SCATを用いて,支援語の位置的特徴と語彙的特徴をあいまいにするために使用される文脈を詳細に分析する。
論文 参考訳(メタデータ) (2021-05-14T17:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。