論文の概要: Impact of Domain-Adapted Multilingual Neural Machine Translation in the
Medical Domain
- arxiv url: http://arxiv.org/abs/2212.02143v1
- Date: Mon, 5 Dec 2022 10:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:38:30.077017
- Title: Impact of Domain-Adapted Multilingual Neural Machine Translation in the
Medical Domain
- Title(参考訳): 医療領域におけるドメイン適応型多言語ニューラルマシン翻訳の効果
- Authors: Miguel Rios, Raluca-Maria Chereji, Alina Secara, Dragos Ciobanu
- Abstract要約: 英語・ルーマニア語医学領域におけるドメイン適応型MNMTモデルの品質について,自動計測とヒューマンエラー型アノテーションを用いて検討した。
ドメイン内MNMTモデルは、すべての測定された自動メトリクスにおいて、ドメイン外MNMTよりも優れ、用語エラーが少ない。
- 参考スコア(独自算出の注目度): 1.7587442088965224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual Neural Machine Translation (MNMT) models leverage many language
pairs during training to improve translation quality for low-resource languages
by transferring knowledge from high-resource languages. We study the quality of
a domain-adapted MNMT model in the medical domain for English-Romanian with
automatic metrics and a human error typology annotation which includes
terminology-specific error categories. We compare the out-of-domain MNMT with
the in-domain adapted MNMT. The in-domain MNMT model outperforms the
out-of-domain MNMT in all measured automatic metrics and produces fewer
terminology errors.
- Abstract(参考訳): マルチリンガルニューラルネットワーク翻訳(MNMT)モデルは、トレーニング中に多くの言語ペアを活用し、高リソース言語からの知識を伝達することで、低リソース言語の翻訳品質を改善する。
自動メトリクスを用いた英語-ローマ語の医療領域におけるドメイン適応型mnmtモデルの品質と,用語固有のエラーカテゴリを含むヒューマンエラータイポロジーアノテーションについて検討した。
ドメイン外MNMTとドメイン内適応MNMTを比較した。
ドメイン内MNMTモデルは、すべての自動測定値においてドメイン外MNMTよりも優れ、用語エラーが少ない。
関連論文リスト
- Large Language Model for Multi-Domain Translation: Benchmarking and Domain CoT Fine-tuning [55.107329995417786]
大規模言語モデル(LLM)は、目覚ましい一般的な理解と生成能力を示している。
我々は、25のドイツ語$Leftrightarrow$ Englishと22の中国語$Leftrightarrow$ Englishテストセットを特徴とするマルチドメイン翻訳のベンチマークを確立する。
本稿では,LLMの内在的マルチドメインインテリジェンスを活用し,翻訳性能を向上させるためのドメインチェーン・オブ・シント(CoT)ファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T16:15:04Z) - Instruction-tuned Large Language Models for Machine Translation in the Medical Domain [1.0152838128195465]
大規模言語モデル(LLM)は、高リソース言語ペアとドメインに対する機械翻訳において有望な結果を示している。
本研究では,医学領域におけるベースラインLLMと命令調整LLMのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2024-08-29T11:05:54Z) - Fine-Tuned Machine Translation Metrics Struggle in Unseen Domains [10.743362634494842]
このデータセットを用いて、人為的なMT品質判断に基づいて微調整された機械翻訳(MT)メトリクスが、トレーニングと推論の間のドメインシフトに対して堅牢であるかどうかを調べる。
微調整されたメトリクスは、表面形状に依存するメトリクスと、MT品質判断に基づいて微調整されていない事前訓練されたメトリクスとに対して、目に見えない領域シナリオにおいて、かなりのパフォーマンス低下を示す。
論文 参考訳(メタデータ) (2024-02-28T23:01:24Z) - Exploiting Language Relatedness in Machine Translation Through Domain
Adaptation Techniques [3.257358540764261]
文のスケール化類似度スコアを,特に5グラムのKenLM言語モデルに基づく関連言語に適用する手法を提案する。
提案手法は, マルチドメインアプローチでは2 BLEU点, NMTでは3 BLEU点, 反復的バックトランスレーションアプローチでは2 BLEU点の増加に成功している。
論文 参考訳(メタデータ) (2023-03-03T09:07:30Z) - $m^4Adapter$: Multilingual Multi-Domain Adaptation for Machine
Translation with a Meta-Adapter [128.69723410769586]
多言語ニューラルネットワーク翻訳モデル(MNMT)は、ドメインと言語ペアのデータに基づいて評価すると、最先端の性能が得られる。
ドメインシフトや新しい言語ペアへの変換にMNMTモデルを使用すると、パフォーマンスが劇的に低下する。
我々はメタラーニングとアダプタを用いたドメイン知識と言語知識を組み合わせた$m4Adapter$を提案する。
論文 参考訳(メタデータ) (2022-10-21T12:25:05Z) - Can Domains Be Transferred Across Languages in Multi-Domain Multilingual
Neural Machine Translation? [52.27798071809941]
本稿では,多言語NMTと多言語NMTの合成において,言語間でドメイン情報を転送できるかどうかを検討する。
マルチドメイン多言語(MDML)NMTは,BLEUで0ショット変換性能を+10ゲインまで向上させることができる。
論文 参考訳(メタデータ) (2022-10-20T23:13:54Z) - DICTDIS: Dictionary Constrained Disambiguation for Improved NMT [50.888881348723295]
我々は辞書から派生した複数の候補翻訳の曖昧さを解消する語彙制約付きNMTシステムであるDictDisを提案する。
我々は、規制、金融、工学を含む様々な分野において、英語・ヒンディー語・英語・ドイツ語文に関する広範な実験を通じて、DictDisの有用性を実証する。
論文 参考訳(メタデータ) (2022-10-13T13:04:16Z) - Multi-Domain Adaptation in Neural Machine Translation Through
Multidimensional Tagging [1.433758865948252]
文レベルの情報をモデルに渡すためのシンプルで効果的な方法である多次元タグ付け (MDT) を記述および実証的に評価する。
ヒトとBLEUの評価結果は,MDTが多領域適応の問題に適用可能であり,構成ドメインの翻訳品質を犠牲にすることなく,トレーニングコストを大幅に削減できることを示している。
論文 参考訳(メタデータ) (2021-02-19T21:19:42Z) - FDMT: A Benchmark Dataset for Fine-grained Domain Adaptation in Machine
Translation [53.87731008029645]
機械翻訳(FDMT)における実世界のきめ細かいドメイン適応タスクを提案する。
FDMTデータセットは、自動運転車、AI教育、リアルタイムネットワーク、スマートフォンの4つのサブドメインで構成されている。
この新しい設定で定量的な実験と深い分析を行い、きめ細かいドメイン適応タスクをベンチマークします。
論文 参考訳(メタデータ) (2020-12-31T17:15:09Z) - Unsupervised Domain Clusters in Pretrained Language Models [61.832234606157286]
大規模事前学習型言語モデルでは,教師なしのドメインによってクラスタ化される文表現を暗黙的に学習する。
このようなモデルに基づくドメインデータ選択手法を提案する。
我々は5つの異なる領域にわたるニューラルネットワーク翻訳のためのデータ選択手法を評価する。
論文 参考訳(メタデータ) (2020-04-05T06:22:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。