論文の概要: Multilingual LLM Prompting Strategies for Medical English-Vietnamese Machine Translation
- arxiv url: http://arxiv.org/abs/2509.15640v1
- Date: Fri, 19 Sep 2025 06:06:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.020143
- Title: Multilingual LLM Prompting Strategies for Medical English-Vietnamese Machine Translation
- Title(参考訳): 医療用英語-ベトナム語機械翻訳のための多言語LLMプロンプト戦略
- Authors: Nhu Vo, Nu-Uyen-Phuong Le, Dung D. Le, Massimo Piccardi, Wray Buntine,
- Abstract要約: 医療用英語-ベトナム語機械翻訳(En-Vi MT)は、ベトナムにおける医療アクセスとコミュニケーションに不可欠である。
我々は,MedEVデータセット上で6つの多言語LLM(0.5B-9Bパラメータ)のプロンプト戦略を評価する。
- 参考スコア(独自算出の注目度): 7.238888652441979
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical English-Vietnamese machine translation (En-Vi MT) is essential for healthcare access and communication in Vietnam, yet Vietnamese remains a low-resource and under-studied language. We systematically evaluate prompting strategies for six multilingual LLMs (0.5B-9B parameters) on the MedEV dataset, comparing zero-shot, few-shot, and dictionary-augmented prompting with Meddict, an English-Vietnamese medical lexicon. Results show that model scale is the primary driver of performance: larger LLMs achieve strong zero-shot results, while few-shot prompting yields only marginal improvements. In contrast, terminology-aware cues and embedding-based example retrieval consistently improve domain-specific translation. These findings underscore both the promise and the current limitations of multilingual LLMs for medical En-Vi MT.
- Abstract(参考訳): 医療用英語-ベトナム語機械翻訳(En-Vi MT)は、ベトナムにおける医療アクセスとコミュニケーションに不可欠であるが、ベトナム語は低資源で低研究の言語である。
我々は,MedEVデータセット上の6つの多言語LPM(0.5B-9Bパラメータ)のプロンプト戦略を系統的に評価し,ゼロショット,少数ショット,辞書拡張プロンプトを英語・ベトナム語の医療レキシコンであるMeddictを用いて比較した。
その結果、モデルスケールがパフォーマンスの主要な要因であることが示され、より大きなLLMは強力なゼロショット結果を得る一方、少数ショットのプロンプトは限界的な改善しか得られない。
対照的に、用語認識と埋め込みに基づく例検索は、一貫してドメイン固有の翻訳を改善している。
これらの知見は,En-Vi MT における多言語 LLM の約束と現状の限界を裏付けるものである。
関連論文リスト
- Comparing Large Language Models and Traditional Machine Translation Tools for Translating Medical Consultation Summaries: A Pilot Study [9.136745540182423]
本研究では,大規模言語モデル(LLM)と従来の機械翻訳ツール(MT)が,医療相談要約を英語からアラビア語,中国語,ベトナム語に翻訳する方法について検討した。
その結果,従来型のMTツールの方が,特に複雑なテキストに対して高い性能を示した。
アラビア語の翻訳は、言語の形態によって複雑さが増した。
論文 参考訳(メタデータ) (2025-04-23T10:31:33Z) - Multi-OphthaLingua: A Multilingual Benchmark for Assessing and Debiasing LLM Ophthalmological QA in LMICs [3.1894617416005855]
大型言語モデル(LLM)は、様々な眼科手術を自動化するための有望なソリューションを提供する。
LLMは、自然言語の問合せタスクにおいて、様々な言語で顕著に異なる性能を示してきた。
本研究は,複数言語にまたがる質問を手作業でキュレートした,最初の多言語眼科的質問答えベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-18T20:18:03Z) - MedExpQA: Multilingual Benchmarking of Large Language Models for Medical Question Answering [8.110978727364397]
大規模言語モデル(LLM)は、人工知能技術の発展を促進する可能性を秘めている。
本稿では,MedExpQAについて述べる。MedExpQAは,医学質問応答におけるLSMを評価するための,医学試験に基づく最初の多言語ベンチマークである。
論文 参考訳(メタデータ) (2024-04-08T15:03:57Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language Models [100.47154959254937]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z) - Enriching Biomedical Knowledge for Low-resource Language Through
Translation [1.6347851388527643]
我々は、英語・ベトナム語における最先端翻訳モデルを用いて、事前訓練されたデータとバイオメディカル領域における教師付きデータの両方を翻訳し、生成する。
このような大規模な翻訳のおかげで、高品質な公開コーパスから2000万の抽象化に基づいてトレーニングされた、事前訓練されたデコーダ変換モデルであるViPubmedT5を導入する。
論文 参考訳(メタデータ) (2022-10-11T16:35:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。