論文の概要: ViNMT: Neural Machine Translation Tookit
- arxiv url: http://arxiv.org/abs/2112.15272v1
- Date: Fri, 31 Dec 2021 02:42:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 13:31:26.739965
- Title: ViNMT: Neural Machine Translation Tookit
- Title(参考訳): ViNMT:ニューラルマシン翻訳ツール
- Authors: Nguyen Hoang Quan, Nguyen Thanh Dat, Nguyen Hoang Minh Cong, Nguyen
Van Vinh, Ngo Thi Vinh, Nguyen Phuong Thai, and Tran Hong Viet
- Abstract要約: ニューラルネットワーク翻訳のためのオープンソースツールキット(NMT)を提案する。
新しいツールキットは、主にVaulted Transformer(Vaswani et al., 2017)に基づいている。
それは、各コーパスからモデルを構築することから、新しい予測を推測したり、モデルをサービス可能なJITフォーマットにパッケージングするまで、バイリンガルとマルチリンガルの両方の翻訳タスクをサポートするためのツールである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present an open-source toolkit for neural machine translation (NMT). The
new toolkit is mainly based on vaulted Transformer (Vaswani et al., 2017) along
with many other improvements detailed below, in order to create a
self-contained, simple to use, consistent and comprehensive framework for
Machine Translation tasks of various domains. It is tooled to support both
bilingual and multilingual translation tasks, starting from building the model
from respective corpora, to inferring new predictions or packaging the model to
serving-capable JIT format.
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)のためのオープンソースツールキットを提案する。
この新しいツールキットは主にVaswaniらによるVaulted Transformer(2017年)に基づいており、以下に詳述した多くの改良とともに、さまざまなドメインの機械翻訳タスクのための、自己完結でシンプルな、一貫性のある、包括的なフレームワークを作成する。
それぞれのコーパスからモデルを構築することから、新しい予測を推論したり、モデルをサービス可能なjitフォーマットにパッケージングすることまで、バイリンガルおよび多言語翻訳タスクの両方をサポートするためのツールである。
関連論文リスト
- Extending Multilingual Machine Translation through Imitation Learning [60.15671816513614]
Imit-MNMTは、タスクを専門家の行動を模倣する模倣学習プロセスとして扱う。
提案手法は,新言語と原言語の翻訳性能を大幅に向上させることを示す。
我々はまた、我々のアプローチがコピーとオフターゲットの問題を解決することができることを示した。
論文 参考訳(メタデータ) (2023-11-14T21:04:03Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer [49.897891031932545]
Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップで一般的に使用される。
我々は、ソースターゲットデータのトレーニングを可能にするエンドツーエンドのピボットベース統合モデルを提案する。
論文 参考訳(メタデータ) (2021-09-27T14:49:35Z) - YANMTT: Yet Another Neural Machine Translation Toolkit [33.96429439165039]
本稿では,オープンソースニューラルネットワーク翻訳(NMT)ツールキットであるYet Another Neural Machine Translation Toolkit(YANMTT)について述べる。
YANMTTは、大規模NMTモデルを事前訓練するための最小限のコードで問題に対処し、事前訓練されたパラメータを選択的に転送し、微調整し、翻訳を行い、可視化と分析のための表現と注意を抽出することを目的としている。
論文 参考訳(メタデータ) (2021-08-25T08:47:24Z) - XLM-T: Scaling up Multilingual Machine Translation with Pretrained
Cross-lingual Transformer Encoders [89.0059978016914]
そこで本稿では,既製のクロスリンガルトランスフォーマでモデルを初期化し,多言語並列データで微調整するXLM-Tを提案する。
この単純な方法は,10対のWMTデータセットと94対のOPUS-100コーパスにおいて,大幅な改善を実現する。
論文 参考訳(メタデータ) (2020-12-31T11:16:51Z) - Domain Adaptation of NMT models for English-Hindi Machine Translation
Task at AdapMT ICON 2020 [2.572404739180802]
本稿では,adapmt共有タスクアイコン2020で提示された英語ヒンディー語のニューラルマシン翻訳システムについて述べる。
我々のチームは化学・一般分野のEn-Hi翻訳タスクで第1位、AI分野のEn-Hi翻訳タスクで第2位にランクインした。
論文 参考訳(メタデータ) (2020-12-22T15:46:40Z) - Tilde at WMT 2020: News Task Systems [0.38073142980733]
本稿では、Tilde氏がWMT 2020に投稿した英語とポーランド語の両方の方向のニュース翻訳タスクについて述べる。
我々は,形態的に動機づけたサブワード単位ベースのトランスフォーマーベースモデルとして,ベースラインシステムを構築している。
最終モデルはTransformerベースとTransformerビッグモデルのアンサンブルで、左右に並べ替えられる。
論文 参考訳(メタデータ) (2020-10-29T08:59:37Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Towards Computational Linguistics in Minangkabau Language: Studies on
Sentiment Analysis and Machine Translation [5.381004207943597]
我々は、感情分析と、TwitterとWikipediaから収集、構築された機械翻訳の2つのMinangkabauコーパスをリリースする。
我々は,従来の機械学習とLSTMやTransformerといったシーケンス・ツー・シーケンスモデルを用いて,ミナンカバウ語で最初の計算言語学を行う。
論文 参考訳(メタデータ) (2020-09-19T22:13:27Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - Transformer++ [0.0]
注意機構を用いた変圧器は、シーケンスモデリングにおける最先端の結果のみを達成した。
コンボリューションを用いたマルチヘッドのコンテキストから依存関係を学習する新しい手法を提案する。
新しい形態の多面的注意と伝統的な形態は、WMT 2014の英語-ドイツ語と英語-フランス語の翻訳タスクにおいて、Transformerよりも優れた結果をもたらす。
論文 参考訳(メタデータ) (2020-03-02T13:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。