論文の概要: MedCOD: Enhancing English-to-Spanish Medical Translation of Large Language Models Using Enriched Chain-of-Dictionary Framework
- arxiv url: http://arxiv.org/abs/2509.00934v1
- Date: Sun, 31 Aug 2025 17:04:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.470103
- Title: MedCOD: Enhancing English-to-Spanish Medical Translation of Large Language Models Using Enriched Chain-of-Dictionary Framework
- Title(参考訳): MedCOD:リッチ・チェーン・オブ・辞書・フレームワークを用いた大規模言語モデルの英語・スペイン語医療翻訳の強化
- Authors: Md Shahidul Salim, Lian Fu, Arav Adikesh Ramakrishnan, Zonghai Yao, Hong Yu,
- Abstract要約: MedCODは、言語モデル(LLM)にドメイン固有の構造化知識を統合することで、英語とスペイン語の医療翻訳を改善するために設計されたハイブリッドフレームワークである。
我々は,2,999の英語・スペイン語のMedlinePlus記事の並列コーパスと,構造化医療コンテキストを付加した100文テストセットを構築した。
実験結果から,MedCODは全モデル間の翻訳品質を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 8.604097439756378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MedCOD (Medical Chain-of-Dictionary), a hybrid framework designed to improve English-to-Spanish medical translation by integrating domain-specific structured knowledge into large language models (LLMs). MedCOD integrates domain-specific knowledge from both the Unified Medical Language System (UMLS) and the LLM-as-Knowledge-Base (LLM-KB) paradigm to enhance structured prompting and fine-tuning. We constructed a parallel corpus of 2,999 English-Spanish MedlinePlus articles and a 100-sentence test set annotated with structured medical contexts. Four open-source LLMs (Phi-4, Qwen2.5-14B, Qwen2.5-7B, and LLaMA-3.1-8B) were evaluated using structured prompts that incorporated multilingual variants, medical synonyms, and UMLS-derived definitions, combined with LoRA-based fine-tuning. Experimental results demonstrate that MedCOD significantly improves translation quality across all models. For example, Phi-4 with MedCOD and fine-tuning achieved BLEU 44.23, chrF++ 28.91, and COMET 0.863, surpassing strong baseline models like GPT-4o and GPT-4o-mini. Ablation studies confirm that both MedCOD prompting and model adaptation independently contribute to performance gains, with their combination yielding the highest improvements. These findings highlight the potential of structured knowledge integration to enhance LLMs for medical translation tasks.
- Abstract(参考訳): MedCOD(Medical Chain-of-Dictionary)は、言語モデル(LLM)にドメイン固有の構造化知識を統合することで、英語とスペイン語の医療翻訳を改善するために設計されたハイブリッドフレームワークである。
MedCODは、Unified Medical Language System (UMLS) と LLM-as-Knowledge-Base (LLM-KB) のパラダイムからドメイン固有の知識を統合し、構造化プロンプトと微調整を強化する。
我々は,2,999の英語・スペイン語のMedlinePlus記事の並列コーパスと,構造化医療コンテキストを付加した100文テストセットを構築した。
4つのオープンソースLCM (Phi-4, Qwen2.5-14B, Qwen2.5-7B, LLaMA-3.1-8B) の評価を行った。
実験結果から,MedCODは全モデル間の翻訳品質を著しく向上することが示された。
例えば、MedCODと微調整のPhi-4はBLEU 44.23、chrF++ 28.91、COMET 0.863を達成し、GPT-4oやGPT-4o-miniのような強力なベースラインモデルを上回った。
アブレーション研究は、MedCODの促進とモデル適応が独立して性能向上に寄与し、それらの組み合わせが最高の改善をもたらすことを確認した。
これらの知見は,医学翻訳作業におけるLLMの強化を目的とした構造化知識統合の可能性を明らかにするものである。
関連論文リスト
- BRIDGE: Benchmarking Large Language Models for Understanding Real-world Clinical Practice Text [10.071956824618418]
大規模言語モデル(LLM)は医療応用に大きな期待を持ち、急速に進化している。
既存のベンチマークのほとんどは、医療試験スタイルの質問やPubMedから派生したテキストに依存している。
9言語にわたる実世界の臨床データソースから得られた87のタスクからなる総合的なベンチマークBRIDGEを提案する。
論文 参考訳(メタデータ) (2025-04-28T04:13:18Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - LLMs-in-the-loop Part-1: Expert Small AI Models for Bio-Medical Text Translation [0.0]
本研究では,医療用テキストに最適化された教師ありニューラルマシン翻訳モデルを開発するために,新しい"LLMs-in-the-loop"アプローチを提案する。
6つの言語での独自の平行コーパスは、科学論文、人工的に生成された臨床文書、医療文書から編纂された。
MarianMTベースのモデルは、Google Translate、DeepL、GPT-4-Turboより優れている。
論文 参考訳(メタデータ) (2024-07-16T19:32:23Z) - Towards Building Multilingual Language Model for Medicine [54.1382395897071]
6つの主要言語を含む約25.5Bトークンを含む多言語医療コーパスを構築した。
MMedBench と呼ばれる有理性を持つ多言語医療用多言語質問応答ベンチマークを提案する。
我々の最終モデルであるMMed-Llama 3は、8Bパラメータしか持たないが、MMedBenchおよび英語ベンチマークの他のすべてのオープンソースモデルと比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-02-21T17:47:20Z) - Augmenting Black-box LLMs with Medical Textbooks for Biomedical Question Answering [48.17095875619711]
LLMs Augmented with Medical Textbooks (LLM-AMT)を提案する。
LLM-AMTは、プラグイン・アンド・プレイモジュールを使用して、権威ある医学教科書をLLMのフレームワークに統合する。
検索コーパスとしての医学教科書は,医学領域におけるウィキペディアよりも効果的な知識データベースであることが確認された。
論文 参考訳(メタデータ) (2023-09-05T13:39:38Z) - Large Language Models Leverage External Knowledge to Extend Clinical
Insight Beyond Language Boundaries [48.48630043740588]
ChatGPTやMed-PaLMのような大規模言語モデル(LLM)は、様々な質問応答タスクに優れています。
我々は,その性能を高めるために,新しい文脈内学習フレームワークを開発した。
論文 参考訳(メタデータ) (2023-05-17T12:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。