論文の概要: Semantic Prosody in Machine Translation: the English-Chinese Case of Passive Structures
- arxiv url: http://arxiv.org/abs/2510.14662v1
- Date: Thu, 16 Oct 2025 13:16:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.86893
- Title: Semantic Prosody in Machine Translation: the English-Chinese Case of Passive Structures
- Title(参考訳): 機械翻訳における意味的韻律 : 英語・中国語の受動的構造の場合
- Authors: Xinyue Ma, Pol Pastells, Mireia Farrús, Mariona Taulé,
- Abstract要約: 本稿では,特定の構造の意味的韻律について機械翻訳モデルを教えるアプローチを提案する。
我々は,中国語 BEI 受動音に着目し,英語と中国語の文対のデータセットを作成し,BEI 受動音の否定的意味韻律を実証する。
次に, OPUS-MT, NLLB-600M, mBART50モデルを英語・中国語翻訳タスクのデータセットで微調整する。
- 参考スコア(独自算出の注目度): 3.3573302174193973
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Semantic prosody is a collocational meaning formed through the co-occurrence of a linguistic unit and a consistent series of collocates, which should be treated separately from semantic meaning. Since words that are literal translations of each other may have different semantic prosody, more attention should be paid to this linguistic property to generate accurate translations. However, current machine translation models cannot handle this problem. To bridge the gap, we propose an approach to teach machine translation models about semantic prosody of a specific structure. We focus on Chinese BEI passives and create a dataset of English-Chinese sentence pairs with the purpose of demonstrating the negative semantic prosody of BEI passives. Then we fine-tune OPUS-MT, NLLB-600M and mBART50 models with our dataset for the English-Chinese translation task. Our results show that fine-tuned MT models perform better on using BEI passives for translating unfavourable content and avoid using it for neutral and favourable content. Also, in NLLB-600M, which is a multilingual model, this knowledge of semantic prosody can be transferred from English-Chinese translation to other language pairs, such as Spanish-Chinese.
- Abstract(参考訳): セマンティック・プロソディ(Semantic Prosody)は、言語単位の共起と一貫した連接な連接を通じて形成されるコロケーションの意味であり、セマンティックな意味とは別々に扱うべきである。
相互のリテラル翻訳である単語は、異なる意味韻律を持つ可能性があるため、正確な翻訳を生成するために、この言語特性により多くの注意を払う必要がある。
しかし、現在の機械翻訳モデルはこの問題に対処できない。
このギャップを埋めるために、特定の構造の意味的韻律について機械翻訳モデルを教えるアプローチを提案する。
我々は,中国語 BEI 受動音に着目し,英語と中国語の文対のデータセットを作成し,BEI 受動音の否定的意味韻律を実証する。
次に, OPUS-MT, NLLB-600M, mBART50モデルを英語・中国語翻訳タスクのデータセットで微調整する。
以上の結果から,微調整されたMTモデルは,不愉快な内容の翻訳にBEIパッシブを使用し,中立的かつ好意的な内容に使用するのを回避できることがわかった。
また、多言語モデルであるNLLB-600Mでは、この意味韻律の知識は、英語と中国語の翻訳から、スペイン語と中国語などの他の言語対に移行することができる。
関連論文リスト
- The Role of Handling Attributive Nouns in Improving Chinese-To-English Machine Translation [5.64086253718739]
特に、中国語の帰属名詞による翻訳課題を対象とし、英語翻訳における曖昧さをしばしば引き起こす。
省略粒子X('DE')を手動で挿入することで、この臨界関数ワードの処理方法を改善する。
論文 参考訳(メタデータ) (2024-12-18T20:37:52Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - Multilingual Neural Machine Translation:Can Linguistic Hierarchies Help? [29.01386302441015]
MNMT(Multilingual Neural Machine Translation)は、複数の言語間の翻訳をサポートする単一のNMTモデルを訓練する。
MNMTモデルの性能は、様々な言語から知識を伝達することで、負の転送によって翻訳性能が低下するので、訓練で使用される言語の種類に大きく依存する。
本稿では,MNMTにおける階層的知識蒸留(HKD)手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T02:31:48Z) - Aligning Cross-lingual Sentence Representations with Dual Momentum
Contrast [12.691501386854094]
本稿では,異なる言語からの文表現を,単純なドット積で意味的類似性を計算可能な統合埋め込み空間に整合させることを提案する。
実験結果が示すように,本モデルが生成した文表現は,複数のタスクにおいて新たな最先端を実現する。
論文 参考訳(メタデータ) (2021-09-01T08:48:34Z) - ChrEnTranslate: Cherokee-English Machine Translation Demo with Quality
Estimation and Corrective Feedback [70.5469946314539]
ChrEnTranslateは、英語と絶滅危惧言語チェロキーとの翻訳のためのオンライン機械翻訳デモシステムである。
統計モデルとニューラルネットワークモデルの両方をサポートし、信頼性をユーザに通知するための品質評価を提供する。
論文 参考訳(メタデータ) (2021-07-30T17:58:54Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。