論文の概要: Learning to Detect Unacceptable Machine Translations for Downstream
Tasks
- arxiv url: http://arxiv.org/abs/2005.03925v1
- Date: Fri, 8 May 2020 09:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:33:35.824623
- Title: Learning to Detect Unacceptable Machine Translations for Downstream
Tasks
- Title(参考訳): 下流タスクに対する受け入れがたい機械翻訳の学習
- Authors: Meng Zhang, Xin Jiang, Yang Liu, Qun Liu
- Abstract要約: 機械翻訳を言語横断パイプラインに配置し、下流タスクを導入し、機械翻訳のタスク固有の受容性を定義する。
これにより、並列データを活用して、大規模なアクセプタビリティアノテーションを自動的に生成できます。
我々は、下流のタスクや翻訳モデルに対するフレームワークの有効性を示す実験を行う。
- 参考スコア(独自算出の注目度): 33.07594909221625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of machine translation has progressed tremendously in recent years.
Even though the translation quality has improved significantly, current systems
are still unable to produce uniformly acceptable machine translations for the
variety of possible use cases. In this work, we put machine translation in a
cross-lingual pipeline and introduce downstream tasks to define task-specific
acceptability of machine translations. This allows us to leverage parallel data
to automatically generate acceptability annotations on a large scale, which in
turn help to learn acceptability detectors for the downstream tasks. We conduct
experiments to demonstrate the effectiveness of our framework for a range of
downstream tasks and translation models.
- Abstract(参考訳): 近年,機械翻訳の分野は飛躍的に進歩している。
翻訳品質は大幅に向上しているが、現在のシステムでは、さまざまなユースケースで一様に受け入れられる機械翻訳を作成できない。
本研究では,機械翻訳を言語間パイプラインに配置し,機械翻訳のタスク固有の受容性を定義するために下流タスクを導入する。
これにより、並列データを活用して、大規模なアクセプタビリティアノテーションを自動的に生成することで、下流タスクのアクセプタビリティ検出を学習することができます。
我々は,ダウンストリームタスクと翻訳モデルにおけるフレームワークの有効性を実証する実験を行う。
関連論文リスト
- Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Quality Estimation of Machine Translated Texts based on Direct Evidence
from Training Data [0.0]
MTシステムのトレーニングデータとして使用される並列コーパスは,MTシステムによって生成された翻訳の質を推定するための直接的な手がかりを有することを示す。
実験の結果,本手法は純粋にデータ駆動型機械翻訳システムによって生成された翻訳の品質評価に有効であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T11:52:28Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - Translate your gibberish: black-box adversarial attack on machine
translation systems [0.0]
我々は、ロシア語から英語への翻訳作業において、最先端の機械翻訳ツールを騙すための簡単なアプローチを提示する。
Google、DeepL、Yandexなど多くのオンライン翻訳ツールが、非意味な逆入力クエリに対して間違ったあるいは攻撃的な翻訳を生成する可能性があることを示す。
この脆弱性は、新しい言語を理解することを妨げ、単に機械翻訳システムを使用する際のユーザエクスペリエンスを悪化させる可能性がある。
論文 参考訳(メタデータ) (2023-03-20T09:52:52Z) - Extrinsic Evaluation of Machine Translation Metrics [78.75776477562087]
文レベルでの翻訳と翻訳の良さを区別する上で,自動尺度が信頼性が高いかどうかは不明である。
我々は,3つの下流言語タスクにおいて,最も広く使用されているMTメトリクス(chrF,COMET,BERTScoreなど)のセグメントレベル性能を評価する。
実験の結果,各指標は下流結果の外部評価と負の相関を示すことがわかった。
論文 参考訳(メタデータ) (2022-12-20T14:39:58Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Modelling Latent Translations for Cross-Lingual Transfer [47.61502999819699]
従来のパイプラインの2つのステップ(翻訳と分類)を1つのモデルに統合する新しい手法を提案する。
我々は,多言語NLUタスクにおける新しい潜時翻訳モデルの評価を行った。
ゼロショットと数ショットの学習設定の両方で、平均2.7の精度ポイントのゲインを報告します。
論文 参考訳(メタデータ) (2021-07-23T17:11:27Z) - Using Machine Translation to Localize Task Oriented NLG Output [5.770385426429663]
本稿では、英語の出力に機械翻訳を適用することにより、これを行う。
要求される品質バーは完璧に近く、文の範囲は極めて狭く、機械翻訳訓練データとは大きく異なることが多い。
既存のアイデアに基づいて新しいものを追加することで、必要な品質バーに到達することができます。
論文 参考訳(メタデータ) (2021-07-09T15:56:45Z) - Computer Assisted Translation with Neural Quality Estimation and
Automatic Post-Editing [18.192546537421673]
本稿では,機械翻訳出力の品質推定と自動編集のためのエンドツーエンドのディープラーニングフレームワークを提案する。
我々のゴールは、誤り訂正の提案を提供することであり、解釈可能なモデルにより、人間の翻訳者の負担を軽減することである。
論文 参考訳(メタデータ) (2020-09-19T00:29:00Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。