論文の概要: Towards User-Driven Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2106.06200v1
- Date: Fri, 11 Jun 2021 07:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 01:27:48.654289
- Title: Towards User-Driven Neural Machine Translation
- Title(参考訳): ユーザ駆動ニューラルマシン翻訳に向けて
- Authors: Huan Lin, Liang Yao, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua
Luo, Degen Huang, Jinsong Su
- Abstract要約: ユーザ駆動型ニューラルネットワーク翻訳(NMT)という新しいフレームワークを導入する。
キャッシュベースのモジュールとユーザ主導のコントラスト学習手法が提案され,NMTが過去の入力から潜在的なユーザ特性をキャプチャする機能を提供する。
UDT-Corpusと呼ばれるユーザ行動に注釈を付けた最初の中国語-英語並列コーパスを寄贈する。
- 参考スコア(独自算出の注目度): 39.920283084590764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A good translation should not only translate the original content
semantically, but also incarnate personal traits of the original text. For a
real-world neural machine translation (NMT) system, these user traits (e.g.,
topic preference, stylistic characteristics and expression habits) can be
preserved in user behavior (e.g., historical inputs). However, current NMT
systems marginally consider the user behavior due to: 1) the difficulty of
modeling user portraits in zero-shot scenarios, and 2) the lack of
user-behavior annotated parallel dataset. To fill this gap, we introduce a
novel framework called user-driven NMT. Specifically, a cache-based module and
a user-driven contrastive learning method are proposed to offer NMT the ability
to capture potential user traits from their historical inputs under a zero-shot
learning fashion. Furthermore, we contribute the first Chinese-English parallel
corpus annotated with user behavior called UDT-Corpus. Experimental results
confirm that the proposed user-driven NMT can generate user-specific
translations.
- Abstract(参考訳): 良質な翻訳は、原文を意味的に翻訳するだけでなく、原文の個人的特徴を取り入れるべきである。
現実世界のニューラルマシン翻訳(nmt)システムでは、これらのユーザ特性(トピックの好み、スタイル的特徴、表現習慣など)は、ユーザの行動(例えば、履歴入力)に保存することができる。
しかし,現在のnmtシステムでは,(1)ゼロショットシナリオにおけるユーザポートレートのモデル化の難しさ,(2)ユーザビヘイビアアノテートされた並列データセットの欠如,などの理由から,ユーザ動作を控えめに検討している。
このギャップを埋めるために、ユーザ駆動NMTと呼ばれる新しいフレームワークを導入する。
具体的には、キャッシュベースのモジュールとユーザ主導のコントラスト学習手法を提案し、NMTが歴史的入力から潜在的なユーザ特性をゼロショット学習方式でキャプチャする機能を提供する。
さらに, UDT-Corpus と呼ばれるユーザ行動に注釈を付けた最初の中国語-英語並列コーパスを寄贈した。
実験により,提案するユーザ駆動nmtがユーザ固有の翻訳を生成できることが確認された。
関連論文リスト
- Code-Switching with Word Senses for Pretraining in Neural Machine
Translation [107.23743153715799]
ニューラルネットワーク翻訳のための単語センス事前学習(WSP-NMT)について紹介する。
WSP-NMTは、知識ベースからの単語感覚情報を活用した多言語NMTモデルの事前学習のためのエンドツーエンドアプローチである。
実験の結果,全体の翻訳品質が大幅に向上した。
論文 参考訳(メタデータ) (2023-10-21T16:13:01Z) - Towards Opening the Black Box of Neural Machine Translation: Source and
Target Interpretations of the Transformer [1.8594711725515678]
ニューラルネットワーク翻訳(NMT)では、各トークン予測はソース文とターゲットプレフィックスに条件付けされる。
NMTにおける解釈可能性に関するこれまでの研究は、原文トークンの属性のみに焦点を当ててきた。
本稿では,完全な入力トークン属性を追跡する解釈可能性手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T20:59:14Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Learning Domain Specific Language Models for Automatic Speech
Recognition through Machine Translation [0.0]
我々は、タスク固有のテキストデータの翻訳を最初に取得するために、中間ステップとしてNeural Machine Translationを使用します。
我々はNMTビームサーチグラフから単語混乱ネットワークを導出する手法を開発した。
NMT混在ネットワークは、n-gramと繰り返しニューラルネットワークLMの両方の難易度を低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-21T10:29:20Z) - Language Modeling, Lexical Translation, Reordering: The Training Process
of NMT through the Lens of Classical SMT [64.1841519527504]
ニューラルマシン翻訳は、翻訳プロセス全体をモデル化するために、単一のニューラルネットワークを使用する。
ニューラルネットワーク翻訳はデファクトスタンダードであるにもかかわらず、NMTモデルがトレーニングの過程でどのように異なる能力を獲得するのかは、まだ明らかになっていない。
論文 参考訳(メタデータ) (2021-09-03T09:38:50Z) - ChrEnTranslate: Cherokee-English Machine Translation Demo with Quality
Estimation and Corrective Feedback [70.5469946314539]
ChrEnTranslateは、英語と絶滅危惧言語チェロキーとの翻訳のためのオンライン機械翻訳デモシステムである。
統計モデルとニューラルネットワークモデルの両方をサポートし、信頼性をユーザに通知するための品質評価を提供する。
論文 参考訳(メタデータ) (2021-07-30T17:58:54Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。