論文の概要: MultiMed-ST: Large-scale Many-to-many Multilingual Medical Speech Translation
- arxiv url: http://arxiv.org/abs/2504.03546v1
- Date: Fri, 04 Apr 2025 15:49:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:49:57.069293
- Title: MultiMed-ST: Large-scale Many-to-many Multilingual Medical Speech Translation
- Title(参考訳): MultiMed-ST:大規模多言語多言語医療音声翻訳
- Authors: Khai Le-Duc, Tuyen Tran, Bach Phan Tat, Nguyen Kim Hai Bui, Quan Dang, Hung-Phong Tran, Thanh-Thuy Nguyen, Ly Nguyen, Tuan-Minh Phan, Thi Thu Phuong Tran, Chris Ngo, Nguyen X. Khanh, Thanh Nguyen-Tang,
- Abstract要約: MultiMed-STは、5つの言語で全ての翻訳方向をまたがる医療領域のための大規模なSTデータセットである。
290,000のサンプルで、我々のデータセットは最大の医療機械翻訳(MT)データセットである。
実証的ベースライン,バイリンガル・マルチリンガル比較研究,エンドツーエンド比較研究,コードスウィッチ分析,量的品質的誤り分析など,ST研究における最も広範な分析研究について紹介する。
- 参考スコア(独自算出の注目度): 3.6818524036584686
- License:
- Abstract: Multilingual speech translation (ST) in the medical domain enhances patient care by enabling efficient communication across language barriers, alleviating specialized workforce shortages, and facilitating improved diagnosis and treatment, particularly during pandemics. In this work, we present the first systematic study on medical ST, to our best knowledge, by releasing MultiMed-ST, a large-scale ST dataset for the medical domain, spanning all translation directions in five languages: Vietnamese, English, German, French, Traditional Chinese and Simplified Chinese, together with the models. With 290,000 samples, our dataset is the largest medical machine translation (MT) dataset and the largest many-to-many multilingual ST among all domains. Secondly, we present the most extensive analysis study in ST research to date, including: empirical baselines, bilingual-multilingual comparative study, end-to-end vs. cascaded comparative study, task-specific vs. multi-task sequence-to-sequence (seq2seq) comparative study, code-switch analysis, and quantitative-qualitative error analysis. All code, data, and models are available online: https://github.com/leduckhai/MultiMed-ST.
- Abstract(参考訳): 医療領域における多言語音声翻訳(ST)は、言語障壁間の効率的なコミュニケーションを可能にし、特別な労働力不足を緩和し、特にパンデミックにおいて診断と治療の改善を促進することで、患者のケアを強化する。
本研究は,医学領域の大規模STデータセットであるMultiMed-STを,ベトナム語,英語,ドイツ語,フランス語,中国語,簡体字中国語,簡体字中国語の5言語にまたがってリリースし,医学領域におけるSTの体系化に関する最初の研究である。
290,000のサンプルを用いて、我々のデータセットは最大の医療機械翻訳(MT)データセットであり、全ドメインの中で最大の多言語多言語STである。
第2に、実証的ベースライン、バイリンガル・マルチティンガル比較研究、エンドツーエンド対カスケード比較研究、タスク特化対マルチタスクシーケンス・ツー・シーケンス(seq2seq)比較研究、コード・スウィッチ分析、量的品質的誤り分析など、ST研究における最も広範な分析研究を提示する。
すべてのコード、データ、モデルはオンラインで利用可能である。
関連論文リスト
- MultiMed: Multilingual Medical Speech Recognition via Attention Encoder Decoder [1.220481237642298]
我々はMultiMedを紹介した。MultiMedは、マルチリンガルな医療ASRデータセットであり、小型から大規模の医療ASRモデルの最初のコレクションである。
私たちの知る限り、MultiMedは主要なベンチマーク全体にわたって世界最大の医療ASRデータセットです。
本稿では,再現性のある経験的ベースライン,モノリンガル性・多言語性分析,注意デコーダ(AED)とハイブリッド比較研究,AEDのレイヤーワイドアブレーション研究,多言語医学的ASRのための言語分析を含む,医学的ASRのための最初の多言語性研究について紹介する。
論文 参考訳(メタデータ) (2024-09-21T09:05:48Z) - Towards Democratizing Multilingual Large Language Models For Medicine Through A Two-Stage Instruction Fine-tuning Approach [6.921012069327385]
オープンソースの多言語医療用大規模言語モデル (LLM) は、様々な地域において言語的に多様な人口を提供する可能性を秘めている。
6言語で200万以上の高品質な医療サンプルを含む2つの多言語命令微調整データセットを導入する。
第1段階はMMed-IFTを用いて一般的な医療知識を注入し,第2段階はMMed-IFT-MCを用いたタスク固有の複数選択質問を行う。
論文 参考訳(メタデータ) (2024-09-09T15:42:19Z) - Medical mT5: An Open-Source Multilingual Text-to-Text LLM for The Medical Domain [19.58987478434808]
我々は、医療領域における最初のオープンソーステキストからテキストへの多言語モデルであるMedical mT5を提示する。
包括的な評価では、Medical mT5はエンコーダと、スペイン語、フランス語、イタリア語のベンチマークで同等の大きさのテキスト・テキスト・モデルの両方を上回っている。
論文 参考訳(メタデータ) (2024-04-11T10:01:32Z) - Towards Building Multilingual Language Model for Medicine [54.1382395897071]
6つの主要言語を含む約25.5Bトークンを含む多言語医療コーパスを構築した。
MMedBench と呼ばれる有理性を持つ多言語医療用多言語質問応答ベンチマークを提案する。
我々の最終モデルであるMMed-Llama 3は、8Bパラメータしか持たないが、MMedBenchおよび英語ベンチマークの他のすべてのオープンソースモデルと比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-02-21T17:47:20Z) - Taiyi: A Bilingual Fine-Tuned Large Language Model for Diverse
Biomedical Tasks [19.091278630792615]
既存のバイオメディカル大規模言語モデル(LLMs)は、単言語でのバイオメディカル質問応答や会話タスクのパフォーマンス向上に重点を置いている。
多様なバイオメディカルタスクのためのバイリンガル微調整LDMであるTaiyiについて紹介する。
論文 参考訳(メタデータ) (2023-11-20T08:51:30Z) - Multilingual Clinical NER: Translation or Cross-lingual Transfer? [4.4924444466378555]
翻訳に基づく手法は、言語間移動と同じような性能が得られることを示す。
我々はMedNERFを、フランスの医薬品処方薬から抽出した医療用NERテストセットとしてリリースし、英語のデータセットと同じガイドラインで注釈を付した。
論文 参考訳(メタデータ) (2023-06-07T12:31:07Z) - Revisiting Machine Translation for Cross-lingual Classification [91.43729067874503]
この分野のほとんどの研究は、機械翻訳コンポーネントではなく多言語モデルに焦点を当てている。
より強力なMTシステムを用いて、原文のトレーニングと機械翻訳テキストの推論のミスマッチを緩和することにより、翻訳テストは以前想定していたよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T16:56:10Z) - Multilingual Simplification of Medical Texts [49.469685530201716]
4つの言語で医療領域のための文章整列型多言語テキスト単純化データセットであるMultiCochraneを紹介する。
これらの言語にまたがる微調整およびゼロショットモデルの評価を行い,人間による評価と分析を行った。
モデルは、実行可能な単純化されたテキストを生成することができるが、このデータセットが扱う可能性のある、卓越した課題を特定する。
論文 参考訳(メタデータ) (2023-05-21T18:25:07Z) - Romanization-based Large-scale Adaptation of Multilingual Language
Models [124.57923286144515]
大規模多言語事前学習言語モデル (mPLMs) は,NLPにおける多言語間移動のデファクトステートとなっている。
我々は、mPLMをローマン化および非ロマン化した14の低リソース言語コーパスに適用するためのデータとパラメータ効率の戦略を多数検討し、比較した。
以上の結果から, UROMAN をベースとしたトランスリテラルは,多くの言語で高い性能を達成できることがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:58:34Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。