論文の概要: Translationese Reduction using Abstract Meaning Representation
- arxiv url: http://arxiv.org/abs/2304.11501v1
- Date: Sun, 23 Apr 2023 00:04:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:00:19.238872
- Title: Translationese Reduction using Abstract Meaning Representation
- Title(参考訳): 抽象的意味表現を用いた翻訳の削減
- Authors: Shira Wein, Nathan Schneider
- Abstract要約: 翻訳されたテキストや発話には、言語起源のテキストからいくつかの異なる特徴がある。
AMRをインターリンガとして用いることで翻訳文の減少が期待できることを示す。
- 参考スコア(独自算出の注目度): 11.420250754531867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Translated texts or utterances bear several hallmarks distinct from texts
originating in the language. This phenomenon, known as translationese, is
well-documented, and when found in training or test sets can affect model
performance. Still, work to mitigate the effect of translationese in human
translated text is understudied. We hypothesize that Abstract Meaning
Representation (AMR), a semantic representation which abstracts away from the
surface form, can be used as an interlingua to reduce the amount of
translationese in translated texts. By parsing English translations into an AMR
graph and then generating text from that AMR, we obtain texts that more closely
resemble non-translationese by macro-level measures. We show that across four
metrics, and qualitatively, using AMR as an interlingua enables the reduction
of translationese and we compare our results to two additional approaches: one
based on round-trip machine translation and one based on syntactically
controlled generation.
- Abstract(参考訳): 翻訳されたテキストや発話には、言語起源のテキストとは異なるいくつかの特徴がある。
この現象は翻訳と呼ばれ、十分に文書化されており、訓練やテストセットに見られるとモデルの性能に影響を及ぼす可能性がある。
しかし、人間の翻訳文における翻訳の効果を和らげる研究は未検討である。
表層形式から抽象化された意味表現である抽象的意味表現 (abstract meaning representation, amr) は、翻訳文の翻訳量を減らすためのインターリングアとして使用できると仮定する。
英訳をAMRグラフに解析し、そのAMRからテキストを生成することにより、マクロレベルの測度によって非翻訳によく似たテキストを得る。
そこで本研究では,AMRをインターリンガとして用いることで,翻訳文の削減が可能であることと,ラウンドトリップ機械翻訳に基づくものと,統語的に制御された生成に基づくものとの2つのアプローチを比較した。
関連論文リスト
- (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Lost In Translation: Generating Adversarial Examples Robust to
Round-Trip Translation [66.33340583035374]
本研究は, ラウンドトリップ翻訳における現在のテキスト対逆攻撃の堅牢性に関する包括的研究である。
筆者らは,現在最先端のテキストベースの6つの敵攻撃が,ラウンドトリップ翻訳後の有効性を維持していないことを実証した。
本稿では,機械翻訳を逆例生成のプロセスに組み込むことにより,この問題に対する介入に基づく解決策を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:43Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - Neural Machine Translation with Contrastive Translation Memories [71.86990102704311]
Retrieval-augmented Neural Machine Translationモデルは、多くの翻訳シナリオで成功している。
そこで本論文では,新たに検索拡張NMTを提案し,ソース文と相似なコントラスト検索された翻訳記憶をモデル化する。
訓練段階では、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
論文 参考訳(メタデータ) (2022-12-06T17:10:17Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - Towards Debiasing Translation Artifacts [15.991970288297443]
確立されたバイアス除去手法を拡張して,翻訳文の削減のための新しい手法を提案する。
我々は、反復的ヌル空間投影(INLP)アルゴリズムを用いて、デバイアス前後の分類精度を計測することにより、文レベルと単語レベルの両方で翻訳文が削減されることを示す。
我々の知る限りでは、これは潜伏埋め込み空間で表現される翻訳語をデビアスする最初の研究である。
論文 参考訳(メタデータ) (2022-05-16T21:46:51Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。