論文の概要: Impact of Domain-Adapted Multilingual Neural Machine Translation in the
Medical Domain
- arxiv url: http://arxiv.org/abs/2212.02143v1
- Date: Mon, 5 Dec 2022 10:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:38:30.077017
- Title: Impact of Domain-Adapted Multilingual Neural Machine Translation in the
Medical Domain
- Title(参考訳): 医療領域におけるドメイン適応型多言語ニューラルマシン翻訳の効果
- Authors: Miguel Rios, Raluca-Maria Chereji, Alina Secara, Dragos Ciobanu
- Abstract要約: 英語・ルーマニア語医学領域におけるドメイン適応型MNMTモデルの品質について,自動計測とヒューマンエラー型アノテーションを用いて検討した。
ドメイン内MNMTモデルは、すべての測定された自動メトリクスにおいて、ドメイン外MNMTよりも優れ、用語エラーが少ない。
- 参考スコア(独自算出の注目度): 1.7587442088965224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual Neural Machine Translation (MNMT) models leverage many language
pairs during training to improve translation quality for low-resource languages
by transferring knowledge from high-resource languages. We study the quality of
a domain-adapted MNMT model in the medical domain for English-Romanian with
automatic metrics and a human error typology annotation which includes
terminology-specific error categories. We compare the out-of-domain MNMT with
the in-domain adapted MNMT. The in-domain MNMT model outperforms the
out-of-domain MNMT in all measured automatic metrics and produces fewer
terminology errors.
- Abstract(参考訳): マルチリンガルニューラルネットワーク翻訳(MNMT)モデルは、トレーニング中に多くの言語ペアを活用し、高リソース言語からの知識を伝達することで、低リソース言語の翻訳品質を改善する。
自動メトリクスを用いた英語-ローマ語の医療領域におけるドメイン適応型mnmtモデルの品質と,用語固有のエラーカテゴリを含むヒューマンエラータイポロジーアノテーションについて検討した。
ドメイン外MNMTとドメイン内適応MNMTを比較した。
ドメイン内MNMTモデルは、すべての自動測定値においてドメイン外MNMTよりも優れ、用語エラーが少ない。
関連論文リスト
- Fine-Tuned Machine Translation Metrics Struggle in Unseen Domains [9.702124103013752]
このデータセットを用いて、人為的なMT品質判断に基づいて微調整された機械翻訳(MT)メトリクスが、トレーニングと推論の間のドメインシフトに対して堅牢であるかどうかを調べる。
微調整されたメトリクスは、表面形状に依存するメトリクスと、MT品質判断に基づいて微調整されていない事前訓練されたメトリクスとに対して、目に見えない領域シナリオにおいて、かなりのパフォーマンス低下を示す。
論文 参考訳(メタデータ) (2024-02-28T23:01:24Z) - Exploiting Language Relatedness in Machine Translation Through Domain
Adaptation Techniques [3.257358540764261]
文のスケール化類似度スコアを,特に5グラムのKenLM言語モデルに基づく関連言語に適用する手法を提案する。
提案手法は, マルチドメインアプローチでは2 BLEU点, NMTでは3 BLEU点, 反復的バックトランスレーションアプローチでは2 BLEU点の増加に成功している。
論文 参考訳(メタデータ) (2023-03-03T09:07:30Z) - $m^4Adapter$: Multilingual Multi-Domain Adaptation for Machine
Translation with a Meta-Adapter [128.69723410769586]
多言語ニューラルネットワーク翻訳モデル(MNMT)は、ドメインと言語ペアのデータに基づいて評価すると、最先端の性能が得られる。
ドメインシフトや新しい言語ペアへの変換にMNMTモデルを使用すると、パフォーマンスが劇的に低下する。
我々はメタラーニングとアダプタを用いたドメイン知識と言語知識を組み合わせた$m4Adapter$を提案する。
論文 参考訳(メタデータ) (2022-10-21T12:25:05Z) - Can Domains Be Transferred Across Languages in Multi-Domain Multilingual
Neural Machine Translation? [52.27798071809941]
本稿では,多言語NMTと多言語NMTの合成において,言語間でドメイン情報を転送できるかどうかを検討する。
マルチドメイン多言語(MDML)NMTは,BLEUで0ショット変換性能を+10ゲインまで向上させることができる。
論文 参考訳(メタデータ) (2022-10-20T23:13:54Z) - High-resource Language-specific Training for Multilingual Neural Machine
Translation [109.31892935605192]
負の干渉を軽減するために,HLT-MT(High-Resource Language-specific Training)を用いた多言語翻訳モデルを提案する。
具体的には、まずマルチ言語モデルを高リソースペアでトレーニングし、デコーダの上部にある言語固有のモジュールを選択する。
HLT-MTは、高リソース言語から低リソース言語への知識伝達のために、利用可能なすべてのコーパスでさらに訓練されている。
論文 参考訳(メタデータ) (2022-07-11T14:33:13Z) - Multi-Domain Adaptation in Neural Machine Translation Through
Multidimensional Tagging [1.433758865948252]
文レベルの情報をモデルに渡すためのシンプルで効果的な方法である多次元タグ付け (MDT) を記述および実証的に評価する。
ヒトとBLEUの評価結果は,MDTが多領域適応の問題に適用可能であり,構成ドメインの翻訳品質を犠牲にすることなく,トレーニングコストを大幅に削減できることを示している。
論文 参考訳(メタデータ) (2021-02-19T21:19:42Z) - FDMT: A Benchmark Dataset for Fine-grained Domain Adaptation in Machine
Translation [53.87731008029645]
機械翻訳(FDMT)における実世界のきめ細かいドメイン適応タスクを提案する。
FDMTデータセットは、自動運転車、AI教育、リアルタイムネットワーク、スマートフォンの4つのサブドメインで構成されている。
この新しい設定で定量的な実験と深い分析を行い、きめ細かいドメイン適応タスクをベンチマークします。
論文 参考訳(メタデータ) (2020-12-31T17:15:09Z) - Domain Adaptation of NMT models for English-Hindi Machine Translation
Task at AdapMT ICON 2020 [2.572404739180802]
本稿では,adapmt共有タスクアイコン2020で提示された英語ヒンディー語のニューラルマシン翻訳システムについて述べる。
我々のチームは化学・一般分野のEn-Hi翻訳タスクで第1位、AI分野のEn-Hi翻訳タスクで第2位にランクインした。
論文 参考訳(メタデータ) (2020-12-22T15:46:40Z) - Iterative Domain-Repaired Back-Translation [50.32925322697343]
本稿では,ドメイン内並列コーパスが少ない,あるいは存在しない,低リソースのドメイン固有翻訳に焦点を当てる。
本稿では,合成バイリンガルデータの翻訳を洗練するためのドメイン・リペアモデルを提案する。
提案手法の有効性を示すため,NMTモデルを特定の領域と一般領域から特定の領域に適応させる実験を行った。
論文 参考訳(メタデータ) (2020-10-06T04:38:09Z) - Unsupervised Domain Clusters in Pretrained Language Models [61.832234606157286]
大規模事前学習型言語モデルでは,教師なしのドメインによってクラスタ化される文表現を暗黙的に学習する。
このようなモデルに基づくドメインデータ選択手法を提案する。
我々は5つの異なる領域にわたるニューラルネットワーク翻訳のためのデータ選択手法を評価する。
論文 参考訳(メタデータ) (2020-04-05T06:22:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。