論文の概要: How should human translation coexist with NMT? Efficient tool for
building high quality parallel corpus
- arxiv url: http://arxiv.org/abs/2111.00191v1
- Date: Sat, 30 Oct 2021 06:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 09:51:32.656177
- Title: How should human translation coexist with NMT? Efficient tool for
building high quality parallel corpus
- Title(参考訳): ヒト翻訳はNMTとどのように共存すべきか?
高品質並列コーパス構築のための効率的なツール
- Authors: Chanjun Park, Seolhwa Lee, Hyeonseok Moon, Sugyeong Eo, Jaehyung Seo,
Heuiseok Lim
- Abstract要約: 本稿では,人間の労働力を最小化して高品質な並列コーパスを効率的に構築するツールを提案する。
提案手法はニューラルマシン翻訳(NMT)に基づいており,人間の翻訳と共存するだけでなく,効率も向上する。
- 参考スコア(独自算出の注目度): 1.3320773019740764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a tool for efficiently constructing high-quality parallel
corpora with minimizing human labor and making this tool publicly available.
Our proposed construction process is based on neural machine translation (NMT)
to allow for it to not only coexist with human translation, but also improve
its efficiency by combining data quality control with human translation in a
data-centric approach.
- Abstract(参考訳): 本稿では,人的負担を最小限に抑えつつ,高品質な並列コーパスを効率的に構築するツールを提案する。
提案する構築プロセスは,人間の翻訳と共存するだけでなく,データ品質制御と人間の翻訳をデータ中心の手法で組み合わせることでその効率を向上させるために,ニューラルマシン翻訳(nmt)に基づいています。
関連論文リスト
- PMMT: Preference Alignment in Multilingual Machine Translation via LLM Distillation [4.667901787486126]
特定の翻訳嗜好を持つ大規模多言語並列コーパスを生成するための新しい手法を提案する。
実験の結果,提案手法は人間の嗜好に一致した翻訳タスクにおいて,大きなマージンでリードしていることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-15T08:54:27Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Better Datastore, Better Translation: Generating Datastores from
Pre-Trained Models for Nearest Neural Machine Translation [48.58899349349702]
Nearest Neighbor Machine Translation (kNNMT)は、トークンレベルの近接した近接検索機構を備えた、ニューラルネットワーク翻訳(NMT)の簡易かつ効果的な方法である。
本稿では,kNN-MTにおけるデータストアの事前学習モデルを活用するフレームワークであるPreDを提案する。
論文 参考訳(メタデータ) (2022-12-17T08:34:20Z) - Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer [49.897891031932545]
Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップで一般的に使用される。
我々は、ソースターゲットデータのトレーニングを可能にするエンドツーエンドのピボットベース統合モデルを提案する。
論文 参考訳(メタデータ) (2021-09-27T14:49:35Z) - Non-Parametric Online Learning from Human Feedback for Neural Machine
Translation [54.96594148572804]
本稿では,人間のフィードバックによるオンライン学習の課題について検討する。
従来手法では、高品質な性能を達成するために、オンラインモデル更新や翻訳メモリネットワークの追加が必要であった。
モデル構造を変更することなく、新しい非パラメトリックオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-23T04:26:15Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Simultaneous Multi-Pivot Neural Machine Translation [12.796775798210133]
同時のピボットNMT設定では、2つのピボット言語を使用することで最大5.8 BLEUの改善につながります。
N-way parallel UN corpus for Arabic to English NMTをフランス語とスペイン語でピボットとして用いた低リソース設定における実験により、2つのピボット言語を使用した同時ピボットNMT設定が最大5.8 BLEUの改善につながることが明らかになった。
論文 参考訳(メタデータ) (2021-04-15T12:19:52Z) - Meta Back-translation [111.87397401837286]
プリトレーニングされたバック翻訳モデルから擬似並列データを生成する新しい手法を提案する。
本手法は,生成する擬似並列データに対して,検証セット上で良好な処理を行うためのフォワードトランスレーションモデルを訓練するように,事前訓練されたバックトランスレーションモデルを適用するメタラーニングアルゴリズムである。
論文 参考訳(メタデータ) (2021-02-15T20:58:32Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。