論文の概要: Lost in Translationese? Reducing Translation Effect Using Abstract
Meaning Representation
- arxiv url: http://arxiv.org/abs/2304.11501v2
- Date: Mon, 29 Jan 2024 23:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 19:38:44.249735
- Title: Lost in Translationese? Reducing Translation Effect Using Abstract
Meaning Representation
- Title(参考訳): 翻訳に迷った?
抽象的意味表現を用いた翻訳効果の低減
- Authors: Shira Wein, Nathan Schneider
- Abstract要約: 抽象的意味表現(AMR)は、翻訳文中の翻訳文の量を減らし、インターリンガとして使用できると論じる。
英語の翻訳をAMRに解析し、そのAMRからテキストを生成することで、その結果は元々の英語のテキストとよりよく似ている。
この研究は、テキストの翻訳を減らし、言語間言語としてのAMRの有用性を強調している。
- 参考スコア(独自算出の注目度): 11.358350306918027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Translated texts bear several hallmarks distinct from texts originating in
the language. Though individual translated texts are often fluent and preserve
meaning, at a large scale, translated texts have statistical tendencies which
distinguish them from text originally written in the language
("translationese") and can affect model performance. We frame the novel task of
translationese reduction and hypothesize that Abstract Meaning Representation
(AMR), a graph-based semantic representation which abstracts away from the
surface form, can be used as an interlingua to reduce the amount of
translationese in translated texts. By parsing English translations into an AMR
and then generating text from that AMR, the result more closely resembles
originally English text across three quantitative macro-level measures, without
severely compromising fluency or adequacy. We compare our AMR-based approach
against three other techniques based on machine translation or paraphrase
generation. This work makes strides towards reducing translationese in text and
highlights the utility of AMR as an interlingua.
- Abstract(参考訳): 翻訳されたテキストには、言語起源のテキストとは異なるいくつかの特徴がある。
個々の翻訳されたテキストは、しばしば流動的で意味を保っているが、大規模に翻訳されたテキストは、言語で書かれたテキストと区別する統計的傾向があり、モデルのパフォーマンスに影響を与える可能性がある。
本稿では, 翻訳文の翻訳文の量を削減するために, 抽象的意味表現 (Abstract Meaning Representation, AMR) がインターリンガとして利用できることを仮定し, 翻訳文の翻訳文の削減を図った。
英語の翻訳をAMRに解析し、そのAMRからテキストを生成することで、結果は3つの量的マクロレベル尺度にまたがる元の英語のテキストとよりよく似ている。
AMRに基づくアプローチを,機械翻訳やパラフレーズ生成に基づく他の3つの手法と比較する。
この研究はテキストの翻訳を減らし、言語間言語としてのAMRの有用性を強調している。
関連論文リスト
- (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Lost In Translation: Generating Adversarial Examples Robust to
Round-Trip Translation [66.33340583035374]
本研究は, ラウンドトリップ翻訳における現在のテキスト対逆攻撃の堅牢性に関する包括的研究である。
筆者らは,現在最先端のテキストベースの6つの敵攻撃が,ラウンドトリップ翻訳後の有効性を維持していないことを実証した。
本稿では,機械翻訳を逆例生成のプロセスに組み込むことにより,この問題に対する介入に基づく解決策を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:43Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - Neural Machine Translation with Contrastive Translation Memories [71.86990102704311]
Retrieval-augmented Neural Machine Translationモデルは、多くの翻訳シナリオで成功している。
そこで本論文では,新たに検索拡張NMTを提案し,ソース文と相似なコントラスト検索された翻訳記憶をモデル化する。
訓練段階では、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
論文 参考訳(メタデータ) (2022-12-06T17:10:17Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - Towards Debiasing Translation Artifacts [15.991970288297443]
確立されたバイアス除去手法を拡張して,翻訳文の削減のための新しい手法を提案する。
我々は、反復的ヌル空間投影(INLP)アルゴリズムを用いて、デバイアス前後の分類精度を計測することにより、文レベルと単語レベルの両方で翻訳文が削減されることを示す。
我々の知る限りでは、これは潜伏埋め込み空間で表現される翻訳語をデビアスする最初の研究である。
論文 参考訳(メタデータ) (2022-05-16T21:46:51Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。