論文の概要: Refining the state-of-the-art in Machine Translation, optimizing NMT for
the JA <-> EN language pair by leveraging personal domain expertise
- arxiv url: http://arxiv.org/abs/2202.11669v1
- Date: Wed, 23 Feb 2022 18:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:56:09.738299
- Title: Refining the state-of-the-art in Machine Translation, optimizing NMT for
the JA <-> EN language pair by leveraging personal domain expertise
- Title(参考訳): 機械翻訳における最先端技術の改良 : 個人のドメイン知識を活用したja <-> en言語ペアのためのnmt最適化
- Authors: Matthew Bieda
- Abstract要約: OpenNMT フレームワークを活用した Transformer アーキテクチャに基づく En/Ja 用 NMT (Neural Machine Translation) システムの構築
BLEUなどの標準自己評価指標と日本語言語学者としての主観的意見を用いてシステムの評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Documenting the construction of an NMT (Neural Machine Translation) system
for En/Ja based on the Transformer architecture leveraging the OpenNMT
framework. A systematic exploration of corpora pre-processing, hyperparameter
tuning and model architecture is carried out to obtain optimal performance. The
system is evaluated using standard auto-evaluation metrics such as BLEU, and my
subjective opinion as a Japanese linguist.
- Abstract(参考訳): opennmtフレームワークを活用したトランスフォーマーアーキテクチャに基づくen/ja用nmt(neural machine translation)システムの構築を文書化する。
最適性能を得るために,コーパス前処理,ハイパーパラメータチューニング,モデルアーキテクチャの体系的な探索を行った。
本システムはBLEUなどの標準自己評価指標と日本語言語学者としての主観的意見を用いて評価した。
関連論文リスト
- Cross-lingual Human-Preference Alignment for Neural Machine Translation with Direct Quality Optimization [4.993565079216378]
ニューラルネットワーク翻訳(NMT)へのタスクアライメントの適用は,NMTにおける既存のタスクデータミスマッチに対処することを示す。
人選好のプロキシとして,事前学習された翻訳品質推定モデルを活用するDPOの変種であるダイレクト品質最適化(DQO)を導入する。
論文 参考訳(メタデータ) (2024-09-26T09:32:12Z) - Human Evaluation of English--Irish Transformer-Based NMT [2.648836772989769]
ベストパフォーマンスのTransformerシステムは、RNNベースのモデルと比較して精度と誤差を著しく低減する。
Google Translateに対してベンチマークを行ったところ、我々の翻訳エンジンは大幅に改善された。
論文 参考訳(メタデータ) (2024-03-04T11:45:46Z) - IMTLab: An Open-Source Platform for Building, Evaluating, and Diagnosing
Interactive Machine Translation Systems [94.39110258587887]
IMTLabは、オープンソースのエンドツーエンド対話型機械翻訳(IMT)システムプラットフォームである。
IMTLabは、対話的な翻訳プロセス全体を、ヒューマン・イン・ザ・ループ設定によるタスク指向の対話として扱う。
論文 参考訳(メタデータ) (2023-10-17T11:29:04Z) - Statistical Machine Translation for Indic Languages [1.8899300124593648]
本稿では,バイリンガル統計機械翻訳モデルの開発について論じる。
このシステムを構築するために,MOSES オープンソース SMT ツールキットについて検討した。
本実験では, BLEU, METEOR, RIBESなどの標準指標を用いて, 翻訳の質を評価する。
論文 参考訳(メタデータ) (2023-01-02T06:23:12Z) - Domain Adaptation in Neural Machine Translation using a Qualia-Enriched
FrameNet [64.0476282000118]
ニューラルネットワーク翻訳(NMT)システムのドメイン適応手法であるScyllaを提案する。
Scyllaの2つのバージョンが提示される: 1つはソース文を入力として使用し、もう1つはターゲット文を使用する。
スポーツドメインの50文をブラジルポルトガル語から英語に翻訳する実験において,Scyllaを最先端の商用NMTシステムと比較した。
論文 参考訳(メタデータ) (2022-02-21T15:05:23Z) - End-to-End Training for Back-Translation with Categorical Reparameterization Trick [0.0]
バックトランスレーションは、ニューラルネットワーク翻訳(NMT)における効果的な半教師付き学習フレームワークである
事前学習されたNMTモデルは、モノリンガル文を翻訳し、他のNMTモデルのトレーニングのために合成バイリンガル文ペアを作成する。
翻訳文の離散的性質は、情報勾配が2つのNMTモデル間で流れるのを防ぐ。
論文 参考訳(メタデータ) (2022-02-17T06:31:03Z) - Machine Translation Customization via Automatic Training Data Selection
from the Web [97.98885151955467]
特定のドメインで機械翻訳システムをカスタマイズするためのアプローチについて説明します。
ターゲットとなる顧客データに似たデータを選択し、ニューラル翻訳モデルを訓練する。
最後に、自動選択したデータに基づいてMTモデルをトレーニングし、対象領域に特化したシステムを得る。
論文 参考訳(メタデータ) (2021-02-20T03:29:41Z) - Machine Translation of Novels in the Age of Transformer [1.6453685972661827]
本研究では,ニューラルMT (NMT) の最先端アーキテクチャをベースとした,英語からカタルーニャ語への翻訳方向の機械翻訳システムを構築した。
本稿では,このMTシステムと他の3つのシステム(リカレントおよびフレーズベースパラダイムに基づく2つのドメイン固有システムと一般的なオンラインシステム)を比較した。
予想通り、ドメイン固有のトランスフォーマーベースのシステムは、すべての3つの評価において、全ての場合において、大きなマージンで、他の3つのシステムよりも優れていた。
論文 参考訳(メタデータ) (2020-11-30T16:51:08Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。