論文の概要: Learning Non-Monotonic Automatic Post-Editing of Translations from Human
Orderings
- arxiv url: http://arxiv.org/abs/2004.14120v2
- Date: Wed, 15 Dec 2021 20:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 10:08:03.062572
- Title: Learning Non-Monotonic Automatic Post-Editing of Translations from Human
Orderings
- Title(参考訳): 人間注文からの翻訳の非単調後自動編集学習
- Authors: Ant\'onio G\'ois, Kyunghyun Cho, Andr\'e Martins
- Abstract要約: 我々は、人事後編集員が生成した注文を分析し、それらを自動編集システムの訓練に利用する。
人間はほぼ左から右に順守する傾向にあるが、句読や動詞の修正から始めることを好むなど、興味深い偏差がある。
- 参考スコア(独自算出の注目度): 61.21582323566118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research in neural machine translation has explored flexible
generation orders, as an alternative to left-to-right generation. However,
training non-monotonic models brings a new complication: how to search for a
good ordering when there is a combinatorial explosion of orderings arriving at
the same final result? Also, how do these automatic orderings compare with the
actual behaviour of human translators? Current models rely on manually built
biases or are left to explore all possibilities on their own. In this paper, we
analyze the orderings produced by human post-editors and use them to train an
automatic post-editing system. We compare the resulting system with those
trained with left-to-right and random post-editing orderings. We observe that
humans tend to follow a nearly left-to-right order, but with interesting
deviations, such as preferring to start by correcting punctuation or verbs.
- Abstract(参考訳): 最近のニューラルマシン翻訳の研究は、左から右への世代に代わるフレキシブルな生成順序を探求している。
しかし、非単調モデルのトレーニングは、新しい複雑さをもたらす。同じ最終結果に到達する順序の組み合わせの爆発がある場合、良い順序を探す方法?
また、これらの自動注文は、人間の翻訳者の実際の行動とどのように比較されますか?
現在のモデルは、手動で構築したバイアスに依存するか、あるいは自分自身ですべての可能性を調べるために残されている。
本稿では,ヒトのポストエディターが生成した注文を解析し,それらを自動後編集システムのトレーニングに利用する。
得られたシステムと、左から右へ、ランダムな後編集を訓練したシステムを比較した。
人間は左から右にほぼ順応する傾向があるが、句読点や動詞を訂正することから始めることを好む興味深い偏差がある。
関連論文リスト
- Enhancing Supervised Learning with Contrastive Markings in Neural
Machine Translation Training [10.498938255717066]
ニューラルネットワーク翻訳(NMT)における指導的学習は、典型的には教師の強制パラダイムに従う。
コントラッシブマーキング目的による標準最大推定の簡易拡張を提案する。
コントラストマーキングによるトレーニングは教師付き学習の上に改善をもたらすことを示す。
論文 参考訳(メタデータ) (2023-07-17T11:56:32Z) - Utilizing Priming to Identify Optimal Class Ordering to Alleviate
Catastrophic Forgetting [2.363388546004777]
本稿では,人間に見られるプライミングの様々な方法と,生涯の機械学習においてどのように模倣されるかの関連について検討する。
ヒトに見られる様々なプライミングの方法と、それらがどのように模倣されるかは、生涯にわたる機械学習では説明できないままであるので、本論文は、我々の生物学的システムと合成システムとの類似性についてよりよく理解する。
論文 参考訳(メタデータ) (2022-12-24T03:22:26Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Learning and Analyzing Generation Order for Undirected Sequence Models [86.10875837475783]
我々は、強化学習を通して、事前訓練された非直接翻訳モデルの生成順序を学習する政策を訓練する。
学習順序による翻訳は,マンシモフらの学習順序によって左から右へ復号された出力や復号された出力よりも高いBLEUスコアが得られることを示す。
我々の発見は、非方向性生成モデルのメカニズムに関するさらなる洞察を与え、この方向のさらなる研究を奨励する可能性がある。
論文 参考訳(メタデータ) (2021-12-16T18:29:07Z) - Discovering Non-monotonic Autoregressive Orderings with Variational
Inference [67.27561153666211]
我々は、訓練データから高品質な生成順序を純粋に検出する、教師なし並列化可能な学習装置を開発した。
エンコーダを非因果的注意を持つトランスフォーマーとして実装し、1つのフォワードパスで置換を出力する。
言語モデリングタスクにおける経験的結果から,我々の手法は文脈認識であり,一定の順序と競合する,あるいはより優れた順序を見つけることができる。
論文 参考訳(メタデータ) (2021-10-27T16:08:09Z) - Monotonic Simultaneous Translation with Chunk-wise Reordering and
Refinement [38.89496608319392]
本稿では,全文翻訳コーパスの目的側を並べ替え,洗練するアルゴリズムを提案する。
ソースとターゲットの文間の単語/フレーズは、単語アライメントと非自己回帰型ニューラルマシン翻訳を用いて、主に単調に配列される。
提案手法はBLEUのスコアを改良し,結果の翻訳により文の単調性が向上する。
論文 参考訳(メタデータ) (2021-10-18T22:51:21Z) - Non-Parametric Online Learning from Human Feedback for Neural Machine
Translation [54.96594148572804]
本稿では,人間のフィードバックによるオンライン学習の課題について検討する。
従来手法では、高品質な性能を達成するために、オンラインモデル更新や翻訳メモリネットワークの追加が必要であった。
モデル構造を変更することなく、新しい非パラメトリックオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-23T04:26:15Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。